跳转到内容

Vibe Sparking

290 posts by Vibe Sparking

Awesome CEO:创业者和高增长公司领导者的精选资源指南

Awesome CEO:创业者和高增长公司领导者的精选资源指南

Section titled “Awesome CEO:创业者和高增长公司领导者的精选资源指南”

担任高增长创业公司的 CEO 或创始人,是任何人都能承担的最具挑战性的角色之一。你被期望成为愿景家、管理者、融资专家、产品顾问和文化领袖——所有这些身份同时集于一身。幸运的是,你不必独自摸索出所有答案。

Awesome CEO 是一个专为创业创始人和领导高增长公司的人士精心策划的观点鲜明的资源集合。由 Dima 创建(他以谦逊的方式自我介绍:“你好,我的名字叫 Dima,我是一名 CEO”),这个仓库已成为全球创业者的首选参考资料。

在本文中,我们将深入探索这个宝贵资源库的主要类别和见解,帮助你发现能够加速创业旅程的工具和知识。

创业生态系统充斥着各种建议、博客文章和”专家”观点。Awesome CEO 之所以与众不同,在于它的精心筛选——每个资源都是因其实用价值而非流行度而被收录。这个集合涵盖了从创意到 IPO 的整个创始人旅程。

恐怕没有哪个话题比融资更能给创始人带来焦虑了。Awesome CEO 提供了一份全面的指南:

重点资源包括:

  • Y Combinator 的种子轮融资指南——理解早期融资的权威起点
  • Lenny Rachitsky 的融资实战手册——来自科技最受尊敬的产品思想家之一的实用建议
  • Dropbox 的创业融资手册——来自经历过这一切的公司的真实策略
  • Khosla Ventures 关于发布前融资——如何在甚至还没有产品之前就获得资金

**关键洞察:**种子前和种子阶段最难的问题不是”我该如何融资?“而是”我应该在当前产品上坚持,还是转向下一个创意?“这个决策框架本身就已经值回票价了。

工具与计算器:

  • 创业公司股权稀释计算器
  • 创业经济学计算器

融资演示文稿资源:

  • 30 个传奇创业融资演示文稿及分析
  • 获得风险投资支持的创业公司演示文稿集合
  • Startup Decks 演示文稿库

在深入研究具体策略之前,创始人需要了解基础知识:

必读文章:

  • Sam Altman 的创业手册创业课程——来自 Y Combinator 前总裁的基础知识
  • 担任 CEO 的 85 个教训——来自战线的真实、实用的经验
  • 创业 CEO 的第二份工作——理解你作为领导者和公司建设者的双重角色

框架:

  • 精益画布——强迫你进行清晰思考的一页商业计划改编版
  • YC 的 A 轮尽职调查清单——风险投资商实际评估的内容

打造人们想要的东西,说起来简单,做起来难得出奇。

产品市场匹配:

  • a16z 的”关于产品市场匹配的 12 件事”——关于这个关键创业里程碑的权威文章
  • Marty Cagan 的”产品很难”——理解产品必须有价值、可用、可行且可行

**关键洞察:**大多数创业公司应该是”猎人”——专注且战略化——而不是到处洒子弹,希望某个能击中目标。

即使是最好的产品也不会自己卖出去。

销售:

  • Stripe 的”你的前 10 个客户”——你将进行的最重要的销售

市场营销:

  • 开发者营销指南——针对技术受众的专业策略
  • SaaS 电子邮件营销手册——实用的电子邮件策略
  • 当今增长最快的 B2B 企业如何找到前十个客户——真正有效的案例研究

随着创业公司的成长,你的工作从建设者变为管理者,再变为领导者。

核心概念:

  • 制造者的时间表,管理者的时间表(Paul Graham)——理解基本的时间管理差异
  • 上下文切换的破坏——为什么多任务处理会毁灭生产力
  • 授权层级(John Cutler)——理解不同类型的领导权威

远程团队:

  • 在分布式团队中建立优秀文化的 10 个想法

危机管理:

  • Sequoia 的”适应与坚持”——穿越衰退期的权威指南

组建合适的团队是成败的关键。

重点资源:

  • Keith Rabois 论高管面试——如何评估高级人才
  • Keith Rabois 论成为人才磁铁——吸引最优秀的人
  • GitLab 的人才获取框架——系统化的招聘流程

你不能忽视数字。

资源包括:

  • GitLab 的财务规划与分析手册
  • 工程资源平衡和预算编制框架
  • 供应商谈判策略

精心策划的书单特别有价值——这些不是流行的商业书籍,而是真正有影响力的读物:

必读书籍:

  1. 《创业维艰》(Ben Horowitz)——面对真正挑战的真实建议
  2. 《从 0 到 1》(Peter Thiel)——真正创新思维的框架
  3. 《高效能人士的七个习惯》(Stephen Covey)——常被忽视,确实有价值
  4. 《妈妈测试》(Rob Fitzpatrick)——如何真正与客户交谈
  5. 《原子习惯》(James Clear)——小改变,复利结果
  6. 《思考,快与慢》(Daniel Kahneman)——理解决策偏见

不像维基百科风格的列表包含所有内容,Awesome CEO 过滤了质量。每个资源都经过审查。

你找不到学术论文或抽象框架。这些都是从业者的实用资源。

从创意验证到 IPO 考虑,从招聘第一个员工到管理分布式团队——这个资源与你一起成长。

  1. 从融资开始,如果你现在正在融资
  2. 阅读 Sam Altman 的创业手册以获得基础知识
  3. 在扩展之前研究产品市场匹配资源
  1. 随着团队增长,审查管理资源
  2. 在需要之前研究招聘框架
  3. 随时准备危机管理指南——最终你会需要它的
  1. 阅读书籍列表——从《妈妈测试》开始
  2. 研究创业部分
  3. 在构建任何东西之前了解产品市场匹配

Awesome CEO 是精选资源生态系统的一部分:

建立高增长公司很难。拥有精心策划的实战资源库并不能让它变得容易——但确实能减少孤独和不确定性。

Awesome CEO 提供了数百名在你之前走过这条道路的创始人、风险投资人和运营商的智慧。无论你是在进行种子轮融资、扩展到 100 名员工以上,还是刚刚开始思考你的第一家创业公司,这个资源都有适合你的有价值内容。

下次当你陷入创业挑战时,在向无底洞般的 Google 搜索之前,先查看 Awesome CEO。你需要的答案可能已经在这里了。


相关链接:

封面图片:为创业创始人准备的商业书籍和资源集合

Quotio:告别 AI 账号切换烦恼——一款统一管理 Claude、Gemini、OpenAI、Qwen 和 Antigravity 的 macOS 菜单栏应用

不再为管理多个 AI 账号而烦恼。 Quotio 是一款精美的原生 macOS 菜单栏应用,可统一管理您的 Claude、Gemini、OpenAI、Qwen 和 Antigravity 订阅——提供实时配额追踪和智能自动故障转移功能,支持 Claude Code、OpenCode 和 Droid 等 AI 编码工具。

作为开发者,我们在日常工作中越来越依赖多个 AI 编码助手。你可能使用 Claude Code 进行智能代码补全,使用 GitHub Copilot 获取内联建议,使用 Cursor 体验 AI 驱动的 IDE 功能,以及使用各种基于 OpenAI 的工具处理不同任务。每个服务都带来各自的:

  • 订阅和账单管理
  • API 密钥和身份验证
  • 使用配额和速率限制
  • 独立的仪表板和管理界面

这种碎片化造成了持续的开销。你需要在多个浏览器标签页之间切换,在不同的 CLI 配置之间转换,并且不可避免地在一个服务达到速率限制时,另一个服务却闲置着。Quotio 应运而生——这是一个将所有 AI 订阅集中管理的统一解决方案。

Quotio 是一款原生 macOS 应用程序,为多个 AI 提供商服务提供统一的配额监控和请求路由。由开发者 Trong Nguyen(nguyenphutrong)创建,Quotio 具有两个互补的功能:

  1. 可视化仪表板 – 在一个精美的界面中追踪所有 AI API 使用限制
  2. 可选本地代理 – 通过智能负载均衡和故障转移,跨多个提供商账户路由请求

Quotio 提供两种操作模式以满足不同需求:

适合只想了解 AI 使用情况的用户的轻量级模式:

  • 通过读取已安装 CLI 工具的身份验证文件进行实时配额追踪
  • 支持 Claude Code、Codex CLI、Gemini CLI、GitHub Copilot、Cursor 和 Antigravity
  • macOS 菜单栏集成,一目了然地查看配额状态
  • 配额不足时的系统通知
  • 无需代理服务器——资源占用最小

包含所有仅配额模式功能,以及强大的代理能力:

  • 用于请求路由和负载均衡的本地代理服务器
  • 基于提供商的 OAuth 身份验证
  • 配额用尽时账户间的自动故障转移
  • 安全代理访问的 API 密钥管理
  • 全面的使用统计和请求日志
  • CLI 代理工具的自动配置

Quotio 在单一界面中统一管理 10 个 AI 提供商

提供商仅配额模式完整模式
Claude
Gemini
OpenAI
Qwen
Antigravity
GitHub Copilot
Cursor
Codex CLI

菜单栏集成提供一目了然的配额状态:

  • 提供商符号(1-2 个字母)+ 跨模型的最低百分比
  • 示例:"G:95% C:42% CP:88%"(Gemini 95%,Claude 42%,Copilot 88%)
  • 颜色编码指示器:绿色(>50%)、橙色(20-50%)、红色(<20%)
  • 可自定义的显示选项——显示/隐藏提供商、更改颜色模式

在完整模式下,Quotio 充当智能代理:

┌─────────────────┐
│ 编码工具 │
│ (Claude Code) │
└────────┬────────┘
┌─────────────────┐
│ Quotio 代理 │
│ (localhost) │
└────────┬────────┘
┌─────┬─────┬─────┬─────┐
│ Claude│Gemini│OpenAI│Qwen│
│ 账户1│账户1│账户1│账户1│
└─────┴─────┴─────┴─────┘
(配额用尽时自动故障转移)

当一个账户达到配额限制时,Quotio 会自动将请求路由到另一个可用账户,确保工作流程不中断。

持久的 macOS 菜单栏存在让你在不中断工作流程的情况下随时了解情况:

  • 始终可见的配额状态
  • 快速访问详细仪表板
  • 配额不足通知
  • 语言支持:英语和越南语
  • macOS 14.6 或更高版本
  • 受支持的 AI 提供商账户(Claude、Gemini、OpenAI 等)
  1. GitHub Releases 页面下载 Quotio
  2. 启动应用并完成引导流程
  3. 选择您的模式:仅配额(轻量级)或完整模式(含代理)
  4. 通过 OAuth 或手动身份验证连接您的账户
  5. 配置您的编码工具以使用 Quotio 代理(完整模式)

对于 AI 编码工具,Quotio 提供自动配置:

Terminal window
# Quotio 可以自动配置这些工具:
- Claude Code
- OpenCode
- Droid
- Cursor

场景:您是一名开发者,日常工作中使用 Claude Code,但也有 Gemini 和 OpenAI API 用于副业项目。

解决方案:Quotio 让您一目了然地查看所有配额,并在一个提供商耗尽时自动路由请求。

场景:您的团队拥有跨不同提供商的多个 AI 订阅,团队成员在高峰时段经常遇到速率限制。

解决方案:为每个提供商配置多个账户,实现智能负载分配和自动故障转移。

场景:您希望在使用 AI 订阅时最大化利用率,然后再升级到更高层级。

解决方案:使用 Quotio 的详细使用统计了解消费模式,并就订阅升级做出明智决策。

采用现代 macOS 开发实践构建:

  • 框架:SwiftUI 与 AppKit 集成
  • 架构:MVVM 与 Actor 模型,确保线程安全的服务
  • 并发:Swift Concurrency(async/await、actors)
  • 本地化:英语和越南语支持
  • 自动更新:Sparkle 框架实现无缝更新

项目结构遵循清洁架构原则:

Quotio/
├── Models/ # 核心数据结构
├── ViewModels/ # @Observable 状态管理器
├── Views/ # SwiftUI 屏幕和组件
├── Services/ # 配额获取器、代理管理器、API 客户端
└── Managers/ # 应用级协调的单例
功能Quotio手动管理其他解决方案
多提供商支持✅ 10+ 提供商❌ 一次一个⚠️ 有限
实时配额追踪✅ 菜单栏 + 仪表板❌ 仅浏览器标签页⚠️ 经常延迟
自动故障转移✅ 智能路由❌ 手动切换⚠️ 基础路由
原生 macOS 应用✅ 菜单栏集成❌ 基于 Web⚠️ Electron 臃肿
开源✅ 完全开源N/A❌ 通常是专有的
离线能力✅ 无需互联网即可工作❌ 需要互联网⚠️ 有限

截至 0.2.2 版本,Quotio 正在积极开发中,最近新增的功能包括:

  • 用于轻量级使用的仅配额模式
  • Cursor 支持
  • 增强的代理管理
  • 国际化支持

查看 CHANGELOG.md 了解最新更新。

Quotio 解决了使用多个 AI 服务的开发者面临的真正痛点。通过提供统一的配额监控、智能请求路由和无缝故障转移,它将管理多个 AI 订阅的碎片化体验转变为连贯、高效的工作流程。

无论您是管理个人 AI 订阅的个人开发者,还是拥有多个提供商账户的团队成员,Quotio 都能为您提供最大化 AI 生产力所需的工具。

立即下载 Quotiogithub.com/nguyenphutrong/quotio


RAG-Anything:全能多模态 RAG 框架深度解析

RAG-Anything 封面

深入探索 HKUDS/RAG-Anything,这是一个基于 LightRAG 构建的综合性多模态文档处理 RAG 系统,能够在统一框架中处理文本、图像、表格和数学公式。


现代文档日益包含多样化的多模态内容——文本、图像、表格、数学公式、图表和多媒体——而传统专注于文本的 RAG(检索增强生成)系统无法有效处理这些内容。由 HKUDS 开发的 RAG-Anything 应运而生,这是一个基于 LightRAG 构建的综合性全能多模态文档处理 RAG 系统

RAG-Anything 通过在单个集成框架中提供对所有内容模态的无缝处理和查询,消除了对多个专业工具的需求。这种统一的方法使其在学术研究、技术文档、财务报告和企业知识管理等需要统一处理框架的富混合内容场景中特别有价值。

论文: RAG-Anything: All-in-One RAG Framework (arXiv:2510.12323)


特性描述
端到端处理流程从文档摄取到智能问答的完整工作流
通用文档支持支持 PDF、Office 文档、图像等多种文件格式
专门化内容分析针对图像、表格、公式和异构内容的专用处理器
多模态知识图谱自动实体提取和跨模态关系发现
自适应处理模式基于 MinerU 的解析或直接多模态内容注入
混合智能检索跨越文本和多模态内容的高级搜索

Terminal window
# 从 PyPI 基础安装
pip install raganything
# 安装所有可选依赖
pip install 'raganything[all]'
# 使用 uv 从源码安装(推荐)
git clone https://github.com/HKUDS/RAG-Anything.git
cd RAG-Anything
uv sync
  • Python 3.10+
  • LibreOffice(用于 Office 文档处理)
    • macOS: brew install --cask libreoffice
    • Ubuntu: sudo apt-get install libreoffice
  • API Key(OpenAI 兼容或本地模型)
import asyncio
from raganything import RAGAnything, RAGAnythingConfig
from lightrag.llm.openai import openai_complete_if_cache, openai_embed
from lightrag.utils import EmbeddingFunc
async def main():
# 配置
config = RAGAnythingConfig(
working_dir="./rag_storage",
parser="mineru", # 或 "docling"
parse_method="auto",
enable_image_processing=True,
enable_table_processing=True,
enable_equation_processing=True,
)
# 模型函数
def llm_model_func(prompt, system_prompt=None, **kwargs):
return openai_complete_if_cache(
"gpt-4o-mini", prompt, system_prompt=system_prompt,
api_key="your-api-key"
)
def vision_model_func(prompt, image_data=None, **kwargs):
return openai_complete_if_cache(
"gpt-4o", "",
messages=[{
"role": "user",
"content": [
{"type": "text", "text": prompt},
{"type": "image_url", "image_url": {"url": f"data:image/jpeg;base64,{image_data}"}}
]
}],
api_key="your-api-key"
)
embedding_func = EmbeddingFunc(
embedding_dim=3072,
max_token_size=8191,
func=lambda texts: openai_embed(texts, model="text-embedding-3-large")
)
# 初始化
rag = RAGAnything(
config=config,
llm_model_func=llm_model_func,
vision_model_func=vision_model_func,
embedding_func=embedding_func,
)
# 处理文档
await rag.process_document_complete(
file_path="document.pdf",
output_dir="./output"
)
# 查询
result = await rag.aquery(
"图表中的主要发现是什么?",
mode="hybrid"
)
print(result)
asyncio.run(main())

RAG-Anything 实现了一个多阶段多模态处理流程:

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ 文档解析 │ -> │ 内容分析 │ -> │ 知识图谱 │
└─────────────────┘ └─────────────────┘ └─────────────────┘
v
┌─────────────────┐
│ 智能查询 │
└─────────────────┘
  • MinerU 集成:高保真文档结构提取和语义保持
  • 自适应内容分解:自动将文档分割为文本块、视觉元素、表格、数学公式
  • 通用格式支持:PDF、DOC、DOCX、PPT、PPTX、XLS、XLSX、图像等
分析器功能
视觉内容分析器图像描述生成、空间关系提取、层次结构识别
结构化数据解释器表格分析、统计模式识别、跨数据集关系发现
数学表达式解析器LaTeX 公式解析、领域知识映射
可扩展模态处理器通过插件架构支持自定义内容类型
  • 多模态实体提取,附带语义标注
  • 跨模态关系映射
  • 通过 “belongs_to” 链保持层次结构
  • 加权相关性评分
  • 向量-图融合的综合检索
  • 模态感知排序机制
  • 关系连贯性维护

RAG-Anything 提供三种查询类型:

# 不同的检索模式
result = await rag.aquery("你的问题", mode="hybrid") # 向量 + 图谱
result = await rag.aquery("你的问题", mode="local") # 本地上下文
result = await rag.aquery("你的问题", mode="global") # 全局模式
result = await rag.aquery("你的问题", mode="naive") # 仅向量

自动分析检索上下文中的图像:

# 当提供 vision_model_func 时,VLM 增强自动启用
result = await rag.aquery(
"分析文档中的图表",
mode="hybrid"
# vlm_enhanced=True 自动启用
)

带有特定多模态内容的增强查询:

# 带表格数据查询
result = await rag.aquery_with_multimodal(
"将这些指标与文档内容进行比较",
multimodal_content=[{
"type": "table",
"table_data": "方法,准确率\nRAGAnything,95.2%\n基准,87.3%",
"table_caption": "性能对比"
}],
mode="hybrid"
)
# 带公式查询
result = await rag.aquery_with_multimodal(
"解释这个公式的相关性",
multimodal_content=[{
"type": "equation",
"latex": "P(d|q) = \\frac{P(q|d) \\cdot P(d)}{P(q)}",
"equation_caption": "文档相关性概率"
}],
mode="hybrid"
)

# 处理包含图表和表格的研究论文
await rag.process_document_complete(
file_path="research_paper.pdf",
output_dir="./research_output"
)
# 跨模态查询
answer = await rag.aquery(
"总结表2和图3中显示的方法比较实验结果",
mode="hybrid"
)
# 处理包含图表的财务报告
await rag.process_folder_complete(
folder_path="./financial_reports",
output_dir="./finance_output",
file_extensions=[".pdf", ".xlsx"],
recursive=True
)
# 分析趋势
trends = await rag.aquery(
"第三季度和第四季度图表显示的收入趋势是什么?",
mode="global"
)
# 直接插入预解析内容
content_list = [
{"type": "text", "text": "API 端点描述", "page_idx": 0},
{"type": "image", "img_path": "/abs/path/architecture.png",
"image_caption": ["系统架构"], "page_idx": 1},
{"type": "table", "table_body": "|参数|类型|", "table_caption": ["API 参数"], "page_idx": 2}
]
await rag.insert_content_list(
content_list=content_list,
file_path="api_docs.pdf"
)

# MinerU - 强大的 OCR 和表格提取能力
await rag.process_document_complete(
file_path="document.pdf",
parser="mineru",
parse_method="auto" # auto, ocr, 或 txt
)
# Docling - 针对 Office 文档优化
await rag.process_document_complete(
file_path="document.docx",
parser="docling"
)
await rag.process_document_complete(
file_path="document.pdf",
lang="ch", # 文档语言
device="cuda:0", # cpu, cuda, npu, mps
start_page=0, # 起始页(从0开始)
end_page=10, # 结束页
formula=True, # 启用公式解析
table=True, # 启用表格解析
backend="pipeline" # pipeline, vlm-transformers 等
)

格式支持
PDF研究论文、报告、演示文稿
Office 文档DOC、DOCX、PPT、PPTX、XLS、XLSX
图像JPG、PNG、BMP、TIFF、GIF、WebP
文本文件TXT、MD
多模态元素图像、表格、公式、自定义内容

特性传统 RAGRAG-Anything
内容类型仅文本文本、图像、表格、公式
文档处理有限解析MinerU/Docling 高保真提取
知识表示平面文本多模态知识图谱
跨模态理解实体级关系映射
查询能力仅文本多模态 + VLM 增强

Terminal window
# 检查安装
python -c "from raganything import RAGAnything; RAGAnything().check_parser_installation()"
# 安装 LibreOffice
# macOS
brew install --cask libreoffice
# Ubuntu/Debian
sudo apt-get install libreoffice

模型在首次使用时自动下载。手动配置:

Terminal window
# 设置模型源(Hugging Face、ModelScope 或本地)
export MINERU_MODEL_SOURCE=modelscope
# 或在代码中
await rag.process_document_complete(
file_path="document.pdf",
source="modelscope" # huggingface, modelscope, local
)
# 启用 CUDA
await rag.process_document_complete(
file_path="document.pdf",
device="cuda:0",
backend="pipeline"
)

  1. 根据内容类型匹配解析器:复杂布局使用 MinerU,Office 文档使用 Docling
  2. 仅启用所需功能:通过选择性启用图像/表格/公式处理减少开销
  3. 使用适当的查询模式:上下文特定用 local,模式发现用 global,平衡结果用 hybrid
  4. 批量处理相似文档:使用 process_folder_complete 提高效率
  5. 尽可能预解析:对缓存/外部解析结果使用 insert_content_list


@misc{guo2025raganythingallinoneragframework,
title={RAG-Anything: All-in-One RAG Framework},
author={Zirui Guo and Xubin Ren and Lingrui Xu and Jiahao Zhang and Chao Huang},
year={2025},
eprint={2510.12323},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2510.12323},
}

  1. RAG-Anything GitHub 仓库
  2. RAG-Anything 论文 (arXiv:2510.12323)
  3. LightRAG 文档
  4. MinerU 文档

发布日期:2025年12月27日

Antigravity Manager: 专业的 Antigravity 账号管理与切换工具

Antigravity Manager: 专业的 Antigravity 账号管理与切换工具

Section titled “Antigravity Manager: 专业的 Antigravity 账号管理与切换工具”

在快速发展的 AI 工具领域,开发者和爱好者经常发现自己需要在 Google Gemini 和 Anthropic Claude 等不同服务的多个账号之间周旋。Antigravity Manager 是一款专业的桌面应用程序,旨在通过充当“本地 AI 中继站”来解决这个问题。

Antigravity Manager 是一款基于 Tauri v2RustReact 构建的强大工具,允许您在一个地方管理多个 AI 账号。它将基于 Web 的 AI 会话转换为标准化的、兼容 OpenAI 的 API 接口,使您能够无缝地在各种 AI 提供商之间使用您最喜欢的客户端(如 NextChat、Claude Code 或自定义脚本)。

  • 统一账号仪表板: 实时监控全局配额、Token 状态和使用情况。
  • 一键切换: 在不同账号和模型之间无缝切换。
  • 协议转换: 将 Web 会话转换为标准 API 格式。
  • 模型路由: 创建自定义路由规则,将流量引导至特定模型或账号。
  • 多模态支持: 全面支持视觉任务和高质量图像生成(如 Imagen 3)。
  • MCP 兼容性: 增强了与 Model Context Protocol (MCP) 的兼容性,确保与 Claude Code 等工具流畅运行。

##先决条件与安装

Antigravity Manager 支持 macOS、Windows 和 Linux。

在 macOS 上最简单的安装方式是通过 Homebrew:

Terminal window
brew tap lbjlaq/antigravity-manager https://github.com/lbjlaq/Antigravity-Manager
brew install --cask antigravity-tools

您也可以从 GitHub Releases 页面下载最新的二进制文件。

macOS 用户注意: 如果您手动安装,可能需要绕过隔离标志:

Terminal window
sudo xattr -rd com.apple.quarantine "/Applications/Antigravity Tools.app"

如果您使用 Claude CodeCursor 等工具,可以将它们指向 Antigravity Manager 的本地代理(默认为 http://127.0.0.1:8045)。这允许您在不更改开发环境配置文件的情况下切换底层模型或账号。

NextChatChatbox 等聊天客户端连接到本地中继。然后,您可以从一个界面与 Gemini、Claude 或其他支持的模型聊天,利用“模型路由”为任务选择最佳模型。

  1. 添加账号: 启动应用程序并转到“账号”选项卡。登录您的 AI 提供商(如 Google、Anthropic)以授权应用程序。
  2. 启动代理: 导航到“API Proxy”选项卡并启动服务。
  3. 连接客户端: 在您的客户端应用程序中使用代理 URL(http://127.0.0.1:8045/v1/chat/completions)和通用 API 密钥(例如 sk-antigravity)。

Antigravity Manager 简化了管理多个 AI 订阅和 API 密钥的混乱。通过提供统一的本地界面,它使开发者能够专注于构建和创造,而不是管理访问权限。

GitHub 仓库: https://github.com/lbjlaq/Antigravity-Manager

Claude Code Board: 在看板 WebUI 上使用 Claude Code

Claude Code Board 是一个专为 Claude Code CLI 设计的基于 Web 的看板风格管理界面。如果你是 Claude Code 的重度用户,你可能会发现自己经常需要同时管理多个终端窗口来处理不同的任务。Claude Code Board 通过提供一个统一的、可视化的界面来管理这些会话,从而解决了这个问题。

它的目标是通过允许并发管理多个 AI 编码会话并实时跟踪状态(空闲、处理中、完成、错误),来提升开发者的体验。

同时运行多个 Claude Code 实例。看板允许你一目了然地查看每个会话的状态——无论是空闲、正在处理还是已完成。

  • Agent 集成:直接从你的 ~/.claude/agents/ 目录加载自定义 Claude Agent。
  • 工作流阶段:利用预配置的阶段(如代码审查、Bug 修复和功能开发)来构建你的工作。
  • 智能提示:自动注入 Agent 指令和自定义模板,简化你与 AI 的交互。

将你的会话分组在“工作项”下,按项目或主题进行标记,并自动管理工作区路径。这使得你的工作在概念上井井有条,而不仅仅是按终端 ID 区分。

  • WebSocket 驱动的聊天:实时更新和交互。
  • 通知:Window Toast 通知会在任务完成时提醒你。
  • 消息过滤:过滤掉“思考”块或工具使用日志,只关注对话和结果。
  • 会话恢复:恢复之前的对话并保留完整的上下文。
  • 操作系统:Windows 10/11
  • 运行时:Node.js (v18+)
  • 核心工具:全局安装的 Claude Code CLI (npm install -g @anthropic-ai/claude-code)
  1. 克隆仓库

    Terminal window
    git clone https://github.com/cablate/Claude-Code-Board.git
    cd Claude-Code-Board
  2. 安装依赖 你需要为根目录、后端和前端分别安装依赖。

    Terminal window
    npm install
    cd backend && npm install
    cd ../frontend && npm install
  3. 启动应用

    • 选项 1 (Windows):直接运行 start.bat
    • 选项 2 (手动):在不同的终端中分别运行 npm run dev:backendnpm run dev:frontend
  4. 访问:打开浏览器并访问 http://localhost:5173

想象一下,你正在开发一个功能,但同时也需要修复一个紧急 Bug 并审查通过一个 PR。与其打开三个终端并迷失在上下文中,不如在 Claude Code Board 上创建三张卡片:“功能 X”、“Bug Y”和“PR 审查 Z”。你可以轻松地在它们之间切换并查看进度。

你可以通过在 agents 目录中创建 .md 文件来配置专门的 Agent(例如,“架构师”Agent 或“调试器”Agent)。在开始会话时,你可以选择最适合该任务的特定 Agent。

  • 安全性:此工具仅设计用于 本地/个人使用。它没有企业级的安全性(加密/认证),不应部署到公共网络。
  • 平台:目前针对 Windows 进行了优化。

在 Claude Code 中使用 GLM Coding Plan:智谱 AI 集成指南

通过官方 GLM Coding Plan 集成,在 Claude Code 中使用智谱 AI 的 GLM 大模型。从安装配置到日常使用的完整指南。


Claude Code 是一款智能编码工具,可在终端中运行,通过自然语言命令帮助开发者快速完成代码生成、调试、重构等任务。但如果你想使用中国强大的 GLM 模型呢?

GLM Coding Plan 是智谱 AI 提供的官方解决方案,可直接将 GLM 模型集成到 Claude Code 中。通过此集成,你可以在保持熟悉的 Claude Code 工作流的同时,使用 GLM-4.7 和 GLM-4.5-Air 等强大的模型。

本指南将涵盖你需要了解的一切:从安装到高级配置、故障排查和最佳实践。


在开始之前,请确保你拥有:

  • 已安装 Node.js 18 或更新版本
  • Git for Windows(仅 Windows 用户)
  • 智谱 AI 账户和 API 访问权限

打开终端并运行:

Terminal window
npm install -g @anthropic-ai/claude-code

验证安装:

Terminal window
claude --version
# 输出:2.0.14 (Claude Code) 或更高版本

提示: 如果你不熟悉 Node.js 且安装了 Cursor,可以在 Cursor 中输入 Help me install Claude Code,它会引导你完成安装过程。

智谱 AI 提供两种集成方式:

方式一:环境变量(快速开始)

Section titled “方式一:环境变量(快速开始)”

在终端中设置以下环境变量:

Terminal window
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4/"
export ANTHROPIC_AUTH_TOKEN="your_zhipu_api_key"
export ANTHROPIC_MODEL="glm-4.7"

或者将它们添加到你的 shell 配置文件(~/.zshrc~/.bashrc):

Terminal window
cat >> ~/.zshrc <<'EOF'
# GLM Coding Plan 配置
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4/"
export ANTHROPIC_AUTH_TOKEN="your_zhipu_api_key"
export ANTHROPIC_MODEL="glm-4.7"
EOF
source ~/.zshrc

编辑 ~/.claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/paas/v4/",
"ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
}
}

导航到你的项目目录并运行:

Terminal window
claude

当提示”Do you want to use this API key?”时,选择 Yes。然后信任 Claude Code 访问你的项目文件。


模型使用场景速度质量
GLM-4.7复杂推理、架构设计中等最高
GLM-4.5-Air快速任务、简单查询良好
GLM-4.5均衡性能中等
  • 使用 GLM-4.7 用于:功能实现、代码重构、架构决策
  • 使用 GLM-4.5-Air 用于:快速修复、文档编写、简单查询
  • 使用 GLM-4.5 用于:通用开发任务

Terminal window
# 导航到你的项目
cd my-project
# 使用 GLM 启动 Claude Code
claude
# 在 Claude Code 中:
> 添加基于 JWT 的用户认证
> 为认证模块编写单元测试
> 审查并优化数据库查询
Terminal window
claude
# 在 Claude Code 中:
> 重构 User 类以遵循 SOLID 原则
> 将验证逻辑提取到独立服务中
> 为整个模块添加 TypeScript 类型
Terminal window
claude
# 在 Claude Code 中:
> 调查为什么 API 返回 500 错误
> 添加全面的错误日志
> 为此 bug 编写测试用例

你可以通过修改环境变量来切换模型,而无需重启 Claude Code:

Terminal window
# 切换到更快的模型用于简单任务
export ANTHROPIC_MODEL="glm-4.5-air"
# 切换到更强大的模型用于复杂任务
export ANTHROPIC_MODEL="glm-4.7"

然后在 Claude Code 中使用 /status 验证:

当前模型:glm-4.7
Base URL:https://open.bigmodel.cn/api/paas/v4/

GLM Coding Plan 支持额外的 MCP 服务器以增强功能:

启用图像理解能力:

{
"mcpServers": {
"vision": {
"command": "node",
"args": ["path/to/vision-mcp-server.js"]
}
}
}

添加网络搜索能力:

{
"mcpServers": {
"search": {
"command": "node",
"args": ["path/to/search-mcp-server.js"]
}
}
}

启用网页阅读:

{
"mcpServers": {
"web-reader": {
"command": "node",
"args": ["path/to/web-reader-mcp.js"]
}
}
}

症状: 你修改了 ~/.claude/settings.json 但更改没有生效。

解决方案:

  1. 完全重启 Claude Code - 关闭所有终端窗口并重新开始:

    Terminal window
    claude
  2. 验证 JSON 语法 - 使用 JSON 验证器检查语法错误:

    Terminal window
    cat ~/.claude/settings.json | python -m json.tool
  3. 重置配置 - 删除文件并重新配置:

    Terminal window
    rm ~/.claude/settings.json
    claude # 将提示重新配置

症状: “Unauthorized” 或 “Invalid API key” 错误。

解决方案:

  1. 智谱 AI 控制台验证你的 API 密钥
  2. 检查环境变量中是否有额外的空格或引号
  3. 确保 ANTHROPIC_AUTH_TOKEN 设置正确

症状: GLM 模型响应时间过长。

解决方案:

  1. 切换到 glm-4.5-air 以获得更快的响应
  2. 如需要,增加超时时间:
    Terminal window
    export API_TIMEOUT_MS=600000 # 10 分钟
  3. 检查到智谱 API 的网络连接

任务类型推荐模型
快速修复GLM-4.5-Air
功能实现GLM-4.7
代码审查GLM-4.7
文档编写GLM-4.5-Air
调试GLM-4.7
简单查询GLM-4.5-Air

始终从项目根目录运行 Claude Code。这有助于 Claude 理解:

  • 项目结构和依赖关系
  • 构建配置
  • 测试设置
  • 编码约定

将复杂任务分解为更小的步骤:

1. "创建用户数据表结构"
2. "为用户添加 CRUD 操作"
3. "为用户操作编写测试"
4. "添加输入验证"
5. "编写 API 接口文档"

Claude Code 在你提供上下文时效果最好:

  • 完整分享错误消息
  • 显示相关代码片段
  • 解释业务需求
  • 描述预期行为

智谱 AI 在 Claude Code 2.0.14+ 版本上验证 GLM Coding Plan。检查和升级:

Terminal window
# 检查当前版本
claude --version
# 升级到最新版本
claude update

始终保持 Claude Code 更新,以获得与 GLM 模型的最佳兼容性。


特性GLM Coding Plan直接使用 Anthropic其他中国大模型
配置复杂度各异
中文理解优秀良好优秀
代码质量很高中-高
成本有竞争力较高各异
本地数据各异
官方支持N/A有限

Q: 我可以同时使用 GLM Coding Plan 和其他 Claude Code 配置吗?

Section titled “Q: 我可以同时使用 GLM Coding Plan 和其他 Claude Code 配置吗?”

A: 可以,你可以通过更改环境变量或在设置文件中创建多个配置文件来在不同的 API 提供商之间切换。

Q: 我的代码数据会被发送到智谱 AI 服务器吗?

Section titled “Q: 我的代码数据会被发送到智谱 AI 服务器吗?”

A: 是的,类似于 Claude Code 将数据发送给 Anthropic。请查看智谱 AI 的数据隐私政策以了解数据处理和保留的详细信息。

Q: 我可以在 Cursor 或其他 IDE 中使用 GLM Coding Plan 吗?

Section titled “Q: 我可以在 Cursor 或其他 IDE 中使用 GLM Coding Plan 吗?”

A: GLM Coding Plan 主要为基于终端的 Claude Code 设计。但是,如果 Cursor 支持自定义端点,你可以配置类似的 API 设置。

Q: GLM-4.7 和 GLM-4.5-Air 有什么区别?

Section titled “Q: GLM-4.7 和 GLM-4.5-Air 有什么区别?”

A: GLM-4.7 是智谱最强大的模型,适用于复杂推理任务,而 GLM-4.5-Air 针对速度和成本效益进行了优化,适用于更简单的任务。

Q: 如何检查当前激活的是哪个模型?

Section titled “Q: 如何检查当前激活的是哪个模型?”

A: 在 Claude Code 中运行 /status 命令以查看当前模型和配置。



GLM Coding Plan 将智谱 AI 的 GLM 模型强大功能带入 Claude Code,为偏好中国托管模型或需要更好中文语言理解的开发者提供了引人注目的选择。通过正确的配置和模型选择,你可以在保持数据本地化的同时获得生产力提升。

集成简单明了,文档全面,智谱 AI 的官方支持确保了流畅的体验。无论你是构建新功能还是调试现有代码,GLM Coding Plan 都能满足你的需求。

使用 GLM,编码愉快!

Superpowers:将 Claude Code 变成规范化开发工作流引擎

如果 Claude Code 不仅仅是写代码,而是能够强制执行工程纪律,会是什么样?这正是 obra/superpowers 所实现的——一套基于可组合「技能」的完整软件开发工作流系统,这些技能会自动激活来指导你的开发过程。

凭借 GitHub 上超过 11,800 颗星960 个 fork,Superpowers 已成为那些希望 AI 编码助手遵循系统化工程实践(而非随意生成代码)的开发者的首选框架。

Claude Code Superpowers 工作流


核心理念:工程纪律优于快速修复

Section titled “核心理念:工程纪律优于快速修复”

Superpowers 强制执行四个基本原则:

原则描述
测试驱动开发(TDD)先写测试,永远如此。在测试之前写的代码可能被删除
系统化优于临时方案遵循定义好的流程而非猜测
降低复杂性简单性是首要目标(YAGNI、DRY)
证据优于声明在宣布成功之前验证修复是否有效

这不是添加更多功能——而是从根本上改变 AI 代理处理软件开发的方式。


Superpowers 工作原理:五阶段工作流

Section titled “Superpowers 工作原理:五阶段工作流”

启用 Superpowers 后开始项目时,Claude Code 会遵循结构化的工作流:

第一阶段:设计优先(头脑风暴)

Section titled “第一阶段:设计优先(头脑风暴)”

代理不会立即开始写代码,而是「退后一步,询问你真正想做什么」。通过苏格拉底式对话

  • 通过提问探索你的需求
  • 考虑替代方案和边缘情况
  • 以易于理解的块呈现设计供审批
  • 保存规格说明文档

设计获批后,它会创建一个「足够清晰,让热情的初级工程师也能遵循」的实施计划:

  • 将工作分解为 2-5 分钟的任务
  • 指定确切的文件路径和代码位置
  • 包含每个任务的验证步骤
  • 强调 TDD、YAGNI 和 DRY 原则

第三阶段:隔离开发(Git Worktrees)

Section titled “第三阶段:隔离开发(Git Worktrees)”

系统创建隔离的工作空间:

Terminal window
# Superpowers 自动执行:
# 1. 通过 git worktree 创建新分支
# 2. 运行项目设置
# 3. 验证测试基准(更改前所有测试必须通过)

这里是魔法发生的地方——带质量门的自主执行

  • 新鲜的子代理处理各个任务
  • 两阶段审查:规格符合性,然后是代码质量
  • 文档指出:“Claude 自主工作几个小时是很常见的”
  • 验证所有测试通过
  • 提供合并或 PR 选项
  • 清理 worktrees
  • 呈现包含代码审查提示的摘要

Terminal window
# 1. 注册市场
/plugin marketplace add obra/superpowers-marketplace
# 2. 安装 superpowers
/plugin install superpowers@superpowers-marketplace
# 3. 验证安装
/help
# 你应该看到:/superpowers:brainstorm, /superpowers:write-plan, /superpowers:execute-plan

告诉 Codex 获取并遵循:

https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md

告诉 OpenCode 获取并遵循:

https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.opencode/INSTALL.md
Terminal window
/plugin update superpowers

Superpowers 包含按类别组织的综合技能集:

技能用途
test-driven-development强制执行 RED-GREEN-REFACTOR 循环,附带反模式参考
技能用途
systematic-debugging4 阶段根因分析过程
verification-before-completion确保修复在标记完成前得到实际验证
技能用途
brainstorming交互式苏格拉底式设计优化
writing-plans创建包含确切文件路径的详细实施计划
executing-plans带人工检查点的批量执行
dispatching-parallel-agents管理并发子代理工作流
requesting-code-review预审查清单系统
receiving-code-review结构化反馈响应工作流
using-git-worktrees并行开发分支管理
finishing-a-development-branch合并/PR 决策工作流,包含清理
subagent-driven-development带两阶段审查的快速迭代
技能用途
writing-skills创建新技能的指南,包含测试方法论
using-superpowers技能系统介绍

用户:我想添加 OAuth2 用户认证
Claude(启用 Superpowers):
1. [头脑风暴激活] 让我理解你的需求...
- 你需要哪些 OAuth 提供商?
- 使用 Session 还是 JWT 令牌?
- 需要哪些权限范围?
2. [讨论后] 这是设计规格。[保存到文件]
3. [writing-plans 激活] 这是实施计划:
- 任务 1:设置 OAuth 配置(3 分钟)
- 任务 2:编写认证回调测试(5 分钟)
- 任务 3:实现回调处理程序(5 分钟)
...
4. [subagent-driven-development] 带审查的自主执行任务...
5. [finishing-a-development-branch] 所有测试通过。合并还是创建 PR?
用户:用户被随机登出
Claude(启用 Superpowers):
[systematic-debugging 激活]
阶段 1:根因追踪
- 分析会话管理代码...
- 检查令牌过期逻辑...
- 发现:令牌刷新竞态条件
阶段 2:纵深防御
- 识别了多个潜在修复方案
- 建议:添加令牌刷新互斥锁
阶段 3:TDD 实施
[test-driven-development 激活]
- 编写竞态条件的失败测试
- 实施修复
- 验证测试通过
阶段 4:验证
[verification-before-completion 激活]
- 运行完整测试套件
- 模拟并发请求
- 确认:问题已解决

技能根据上下文自动触发——无需手动命令。代理在任何任务之前检查相关技能,使这些成为强制工作流,而非建议

任务之间进行代码审查,在关键问题上阻止进度。这确保问题被及早发现而非累积。

系统实际上会删除在测试之前编写的代码。这强制执行了即使经验丰富的开发者有时也会跳过的纪律。

实施计划包括:

  • 确切的文件路径
  • 完整的代码片段
  • 验证步骤
  • 时间估计(每任务 2-5 分钟)

功能Superpowers原生 Claude CodeCursor + Rules
自动工作流激活部分
TDD 强制执行是(删除预测试代码)
子代理编排有限
Git worktree 管理手动
任务间质量门
自主执行最长 2 小时按请求按请求

  1. 信任流程 - 让 Superpowers 在编码前引导你完成设计
  2. 提供上下文 - 头脑风暴期间分享越多,实施越好
  3. 审查检查点 - 使用人工检查点验证方向
  4. 定期更新 - 运行 /plugin update superpowers 获取最新技能
  1. 不要跳过头脑风暴 - 急于编码会违背目的
  2. 不要忽视测试失败 - 在继续之前修复
  3. 不要绕过质量门 - 它们存在是有原因的
  4. 不要忘记验证 - 确保修复确实有效

问:技能没有自动激活? 答:运行 /help 验证安装。如果技能没有出现,尝试重新安装。

问:可以创建自定义技能吗? 答:可以!使用 writing-skills 技能作为指南。技能存放在仓库中,可直接通过 PR 贡献。

问:如何跳过工作流步骤? 答:你可以覆盖,但不推荐。系统设计为完整工作流。

问:适用于非 TypeScript 项目吗? 答:是的,技能与语言无关。这些原则适用于任何代码库。


  1. Fork 仓库
  2. 为你的技能创建分支
  3. 遵循 writing-skills 指南
  4. 提交 PR

完整指南在 skills/writing-skills/SKILL.md



Superpowers 代表了从「AI 写代码」到「AI 遵循工程纪律」的范式转变。通过使结构化工作流成为强制性而非可选性,它通过自主但系统化的开发过程产生更高质量的代码。

如果你曾对 AI 助手在没有适当测试或设计考虑的情况下生成代码感到沮丧,Superpowers 就是你的解决方案。立即安装,将 Claude Code 转变为你应得的规范化工程伙伴。


准备好提升你的 Claude Code 体验了吗?

Terminal window
/plugin marketplace add obra/superpowers-marketplace
/plugin install superpowers@superpowers-marketplace

未来的你(和你的测试套件)会感谢你的。

Alma:一款优雅的桌面应用,统一管理你的所有 AI 服务

如果你是 AI 深度用户,你的日常工作流程可能是这样的:

  • 一个 ChatGPT 标签页用于快速对话
  • 一个 Claude 标签页专门写代码和分析
  • 一个 Gemini 标签页处理 Google 生态任务
  • 一个 DeepSeek 标签页用于性价比场景
  • 散落在各处的 API 密钥,越来越多…

是不是很熟悉? 你不是一个人。管理多个 AI 服务商,已经成为新时代的”浏览器标签页焦虑症”。

Alma 就是为解决这个问题而生的。

Alma AI 服务商编排


Alma 是一款设计精美的 macOS 桌面应用,充当你 AI 能力的统一指挥中心。不用再在各个网页界面之间来回切换,你可以在一个简洁直观的界面中访问所有 AI 服务商。

把它想象成 AI 的万能遥控器 —— 一个界面,多个大脑。


Alma 出自 yetone 之手,他正是 OpenAI Translator 的开发者 —— 这个项目在 GitHub 上斩获了 23100+ 星标。那个项目从一个 Chrome 插件进化成了多平台桌面应用,充分证明了 yetone 交付高质量 AI 驱动桌面应用的能力。

这个背景很重要。Alma 不是一个周末小项目 —— 它来自一个有着丰富经验、能够打造人们每天实际使用的工具的开发者。


简洁直观的聊天界面,将你所有的 AI 对话整合在一起:

  • Markdown 渲染,响应格式精美
  • 代码高亮,具备语法感知能力
  • 实时流式输出,生成过程即时呈现
  • 深色/浅色主题切换,采用 View Transitions API 实现丝滑动画

Alma 能够跨对话记住上下文:

  • 用户偏好在会话间持久保存
  • 对话上下文向前延续
  • 专门的记忆管理面板便于组织
  • 可查看、整理、清理记忆

内置实时信息获取能力:

  • AI 回答时可检索实时网页数据
  • 无需手动粘贴 URL 或上下文
  • 基于真实网页数据提供当前、准确的答案

不仅是聊天,Alma 还能让 AI 执行复杂任务:

  • 数学计算
  • 数据分析操作
  • 智能工具集成

服务商状态
OpenAI (GPT-4 等)已支持
Anthropic (Claude)已支持
Google Gemini已支持
DeepSeek已支持
自定义 API已支持

这种服务商无关的设计意味着你永远不会被锁定。根据任务需要选择模型 —— 创意写作用 GPT-4,分析用 Claude,控制成本用 DeepSeek。


目前可用:

  • macOS Apple Silicon (.dmg)
  • macOS Intel (.dmg)

即将推出:

  • Windows
  • Linux

注意:目前只有 macOS 版本经过测试并保证可用。Windows 和 Linux 支持正在开发中。


不同模型擅长不同任务。Claude 可能是你写代码的首选,而 GPT-4 在创意写作方面表现更佳。Alma 让你无需切换应用就能切换上下文。

使用自己的 API 密钥,成本完全由你掌控。没有中间商加价,没有订阅费意外。

作为使用你自己 API 密钥的桌面应用,你的对话不会经过第三方服务。数据只在你和选定的服务商之间流转。

与网页界面容易丢失上下文不同,Alma 的记忆系统在会话间保持连续性 —— 让它更像一个持久的助手,而不只是一个工具。


  1. 访问 alma.now
  2. 下载对应的 macOS 版本(Apple Silicon 或 Intel)
  3. 配置你偏好服务商的 API 密钥
  4. 开始聊天,统一访问多个 AI 模型

Alma 代表着一种转变:从 分散的 AI 网页服务统一的 AI 桌面基础设施

对于经常在多个 AI 服务商之间切换的用户来说,这种整合不仅是方便 —— 而是工作流程的变革。一个应用,多个模型,持久记忆,以及专为日常使用设计的界面。

如果你厌倦了在浏览器标签页之间来回切换,想要一种更精致的 AI 服务商管理方式,Alma 值得在你的 Dock 栏占有一席之地。


相关资源:

Sure:开源个人理财应用 - Maybe Finance 的社区复兴之作

引言:价值百万美元的应用,现已免费开源

Section titled “引言:价值百万美元的应用,现已免费开源”

Sure 是已归档的 Maybe Finance 项目的社区维护分支,提供一个功能完整的个人理财和财富管理应用,你可以免费自托管使用。

Maybe Finance 团队在 2021-2022 年间投入了近 100 万美元 进行开发,打造了一个全面的个人理财应用,甚至包含了”咨询顾问”功能,可以将用户与认证财务规划师(CFP/CFA)连接起来。当商业模式未能成功时,他们选择了开源一切——而现在社区将其延续为 Sure

Sure 个人理财应用

  • 账户管理:在一处追踪所有财务账户
  • 交易分类:自动和手动交易分类
  • 净值追踪:长期监控整体财务健康状况
  • 投资组合:追踪股票、债券和其他投资
  • 多币种支持:处理不同货币的财务
  • Docker 部署:使用 Docker 容器轻松自托管
  • 完全数据所有权:财务数据保留在自己的服务器上
  • 隐私优先:无第三方数据共享或分析
  • 一键部署:支持 PikaPods 和 Railway
  • Ruby on Rails:强大的后端框架
  • PostgreSQL:可靠的数据存储
  • Redis:快速缓存和后台任务
  • 响应式设计:适配桌面和移动端
  • Ruby(具体版本见 .ruby-version
  • PostgreSQL >9.3(推荐最新稳定版)
  • Redis >5.4(推荐最新稳定版)

最简单的入门方式是使用 Docker。详细说明请参阅 Docker 托管指南

Terminal window
git clone https://github.com/we-promise/sure.git
cd sure
cp .env.local.example .env.local
bin/setup
bin/dev
# 可选:加载演示数据
rake demo_data:default

访问 http://localhost:3000 并使用以下凭证登录:

  • 邮箱user@example.com
  • 密码Password1!

PikaPodsRun on PikaPods

RailwayDeploy on Railway

  1. 注重隐私的用户:如果你担心与 Mint 或 YNAB 等云服务共享财务数据,Sure 让你完全掌控。

  2. 家庭服务器爱好者:非常适合已经运行自有基础设施的自托管用户。

  3. 开发者和技术用户:熟悉 Docker 和命令行工具的人会发现 Sure 易于部署。

  4. 追求财务自由者:按自己的方式追踪净值和投资进度。

  1. 早间检查:查看仪表板,了解隔夜交易和账户余额
  2. 交易分类:快速分类任何未分类的交易
  3. 每周回顾:分析消费模式并调整预算
  4. 月度快照:审视净值进展和投资表现
  • 定期备份:始终备份 PostgreSQL 数据库
  • 保持更新:定期从仓库拉取最新更改
  • 安全措施:使用 HTTPS 和强密码,特别是在暴露到互联网时
  • 先用演示数据:在连接真实账户前先用演示数据尝试

注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”

注意:此仓库是已归档 Maybe Finance 项目的社区分支。与 Maybe Finance Inc. 无关,也未获其认可。

问:这和 Maybe Finance 一样吗? 答:Sure 是原 Maybe Finance 代码库的社区分支。原项目已不再维护,但 Sure 通过社区贡献保持代码库的活力。

问:我的财务数据安全吗? 答:是的,当自托管时,你的数据永远不会离开你的服务器。没有第三方可以访问你的信息。

问:我可以为项目贡献吗? 答:当然可以!项目欢迎贡献。查看 GitHub 仓库 了解问题和拉取请求。

问:原来的 Maybe Finance 怎么了? 答:Maybe Finance 团队在商业模式未能成功后于 2023 年中停止了开发。他们开源了应用,社区创建了 Sure 以继续开发。

  1. 数据库连接问题:确保 PostgreSQL 正在运行且 .env.local 中的凭证正确
  2. Redis 错误:验证 Redis 在预期端口上运行
  3. 资源编译:如果样式未加载,运行 bin/rails assets:precompile
  4. 内存问题:确保服务器至少有 2GB RAM 以保证流畅运行
功能SureMintYNABFirefly III
自托管
开源是 (AGPLv3)是 (AGPLv3)
费用免费免费(有广告)$14.99/月免费
数据所有权完全完全
投资追踪有限基础
活跃开发社区已停止
  • 价值百万的代码库免费使用:享受开发中的大量投入成果
  • 功能齐全:投资追踪、净值、预算一应俱全
  • 社区驱动:活跃的 Discord 社区和持续开发
  • 注重隐私:自托管意味着完全的数据控制

Sure 为任何对个人理财管理感兴趣的人提供了一个难得的机会。原本近 100 万美元的开发投入现已作为开源项目提供,你可以获得一个专业级的理财应用,按自己的方式运行。

无论你是隐私倡导者、自托管爱好者,还是只是想完全控制财务数据的人,Sure 都提供了一个引人注目的方案。活跃的社区确保了持续的开发和支持,使其成为个人理财管理的可行长期解决方案。

立即开始:克隆仓库,启动 Docker,用 Sure 掌控你的财务生活!

Mitosis: 一次编写,处处运行 - 终极跨框架组件解决方案

你是否厌倦了在多个 JavaScript 框架中维护相同的 UI 组件?认识一下 Builder.io 的 Mitosis - 这款革命性工具让你只需编写一次组件,就能编译到 React、Vue、Angular、Svelte、Solid、Qwik 等众多框架。


Mitosis 是一个开源编译器,可以将 JSX 组件转换为任何主流 JavaScript 框架的完整功能组件。通过使用框架无关的 JSX 语法编写 UI 组件,你可以将它们部署到任何平台,无需为每个框架重写代码。

关键数据:

  • 13.6k+ GitHub Stars
  • 630+ Forks
  • 112 位贡献者
  • 251 个版本发布
  • MIT 开源协议

使用清晰的、框架无关的 JSX 语法编写组件(使用 .lite.tsx 扩展名),Mitosis 可编译为:

框架支持状态
React完全支持
Vue 3完全支持
Angular完全支持
Svelte完全支持
Solid完全支持
Qwik完全支持
React Native完全支持
Alpine完全支持
Preact完全支持
Lit完全支持
Stencil完全支持
Web Components完全支持
Marko完全支持
RSC (React 服务器组件)完全支持

Mitosis 在维护跨多个框架的设计系统方面表现出色。无需为每个框架版本复制组件逻辑和样式,只需编写一次,让 Mitosis 处理转换。

该平台通过专用插件直接将设计系统从 Figma 同步到代码,将 Figma 设计转换为高质量的 HTML、React、Vue、Svelte、Angular 和 Solid 代码。

Mitosis 提供丰富的配置选项:

  • 状态管理方案:useState、Mobx、Solid 等
  • 样式解决方案:Emotion CSS、Styled Components、Styled JSX、CSS Modules
  • TypeScript 支持:完整的 TypeScript 兼容
  • 插件系统:可扩展的架构支持自定义转换

Terminal window
npm create @builder.io/mitosis@latest

按提示输入项目名称并选择所需的框架输出。

Terminal window
cd <项目文件夹>
npm install
Terminal window
cd library
npm run start

每次保存更改时,系统会自动生成特定框架的组件代码。


创建文件 library/src/greet.lite.tsx

import { useStore } from "@builder.io/mitosis";
export default function Greet() {
const state = useStore({
name: ""
});
return (
<div>
<input
value={state.name}
onChange={(e) => state.name = e.target.value}
placeholder="请输入你的名字"
/>
<div>你好,{state.name}</div>
</div>
);
}

保存文件,Mitosis 会自动将其编译为所有已配置的输出框架!


Mitosis 通过以下核心子系统运行:

  1. 解析器系统:将 .lite.tsx.svelte 或 Builder.io JSON 转换为 MitosisComponent 中间表示(IR)

  2. 插件系统:在编译流程的各个阶段转换组件

  3. 生成器系统:将 MitosisComponent IR 转换为框架特定的代码

  4. CLI 和构建系统:协调整个编译过程

基于 JSON 的中间表示使得可靠地序列化到任何目标框架成为可能。


如果你维护一个需要支持多个框架的组件库(如 Chakra UI 同时支持 React 和 Vue),Mitosis 可以消除重复维护的工作量。

大型组织通常有使用不同框架的团队。Mitosis 能够在所有团队之间共享统一的组件库。

计划从 Angular 迁移到 React?使用 Mitosis,你可以通过维护单一真实来源来逐步过渡。

需要 Web 和移动端(React Native)组件?Mitosis 可以从同一源码编译到两者。


  • 保持组件专注且单一职责
  • 使用 useStore 进行状态管理
  • .lite.tsx 文件中避免使用框架特定的 API
  • 利用插件系统进行框架特定的调整
library/
├── src/
│ ├── components/
│ │ ├── Button.lite.tsx
│ │ ├── Input.lite.tsx
│ │ └── Modal.lite.tsx
│ └── utils/
└── packages/
├── react/
├── vue/
└── angular/

创建 mitosis.config.js 进行项目级设置:

module.exports = {
targets: ['react', 'vue', 'angular'],
options: {
react: {
stateType: 'useState'
},
vue: {
api: 'composition'
}
}
};

特性MitosisWeb ComponentsStencil
原生框架输出部分
React/Vue/Angular 支持完整通过包装器有限
包大小最小不定中等
TypeScript完整完整完整
Figma 集成内置

与 Web Components(在 SSR 和框架集成方面存在已知限制)不同,Mitosis 编译为原生框架代码以获得最佳性能和开发体验。


是的!Mitosis 完全支持 TypeScript。只需用 TypeScript 编写组件,编译后的输出会保持类型安全。

可以,但要谨慎使用框架特定的包。使用框架无关的工具库可获得最佳的跨编译结果。

使用 Mitosis 插件在编译期间注入框架特定的代码。你也可以使用 useTarget() 进行条件编译。

Mitosis 支持多种样式方案:

  • CSS-in-JS(Emotion、Styled Components)
  • CSS Modules
  • 纯 CSS
  • Tailwind CSS

有!访问 mitosis.builder.io 即可使用在线 playground,在那里你可以编写 Mitosis 组件并实时查看所有框架的输出。


  • Builder.io:与 Mitosis 集成的可视化页面构建器
  • Figma 插件:设计到代码的转换
  • Zag.js:框架无关的交互原语(由 Chakra UI 团队开发)
  • Radix Primitives:无障碍组件原语


Mitosis 代表了跨框架组件开发方式的范式转变。通过编写一次组件并编译到任何框架,团队可以:

  • 减少 60-80% 的维护负担
  • 确保所有平台的设计一致性
  • 使代码库面向未来,抵御框架变化
  • 通过统一工具加速开发

无论你是在维护设计系统、构建跨平台应用,还是为潜在的框架迁移做准备,Mitosis 都提供了一个引人注目的解决方案,目前已经在德国铁路(DB)UX 设计系统等生产系统中使用。

立即开始:

Terminal window
npm create @builder.io/mitosis@latest

一次编写,处处运行 - 这就是 Mitosis 的承诺。

AntVis Infographic:让文字与数据化身专业信息图的AI可视化框架

痛点:从数据到视觉叙事的鸿沟

Section titled “痛点:从数据到视觉叙事的鸿沟”

制作专业信息图一直是一个耗时的过程。设计师需要在Figma、Illustrator或Canva等工具中花费数小时,手动排列元素、调整颜色、确保视觉一致性。

对于开发者和数据科学家来说,原始数据与引人注目的视觉叙事之间的差距更加明显。你有数据——但要把它转化为可分享、有吸引力的内容,需要超出代码范畴的技能。

如果你能仅凭文字和数据就生成精美的信息图呢?

这就是 AntV Infographic 的价值所在——蚂蚁集团开源的声明式信息图可视化引擎,让专业视觉内容创作变得人人可及。

AntVis Infographic


AntV Infographic 是AntV团队(蚂蚁集团旗下)推出的新一代声明式信息图可视化引擎。通过精心设计的信息图语法,可以快速灵活地渲染高质量信息图,让信息呈现更高效,数据故事讲述更简单。

该框架在设计时就考虑了AI原生工作流——其语法针对大语言模型生成进行了优化,并支持实时流式渲染。

核心数据:

  • 200+内置模板,开箱即用
  • SVG输出,任意尺寸都保持像素级完美
  • MIT许可,完全开源

配置和语法专门针对AI生成进行了调优:

  • 简洁的提示词,LLM易于理解和生成
  • 容错解析,可处理部分或不完整的输出
  • 流式支持,实现实时渐进式渲染
let buffer = '';
for (const chunk of chunks) {
buffer += chunk;
infographic.render(buffer);
}

提供约200个内置模板、数据项组件和布局,让你在几分钟内就能构建专业信息图:

组件类型示例
列表类水平箭头流程、垂直时间线、对比网格
图表类饼图、柱状图、折线图、雷达图与叙事整合
图示类流程图、组织架构图、思维导图
数据项统计数字、KPI卡片、进度指示器

多种预设主题,支持深度定制:

  • 手绘风格,适合非正式、亲和的内容
  • 渐变主题,适合现代、动感的演示
  • 纹理图案,增加视觉质感
  • 企业预设,适合专业报告

AI生成的结果可以通过内置的所见即所得编辑器进一步编辑——无需额外的设计工具。

默认使用SVG渲染,确保:

  • 任意缩放级别都保持视觉保真度
  • 易于编辑,可在矢量工具中修改
  • 文件体积小,相比位图图像更轻量
  • 可访问性强,通过结构化标记实现

AntV Infographic使用声明式、人类可读的语法,同时为人类编写和AI生成进行了优化:

import { Infographic } from '@antv/infographic';
const infographic = new Infographic({
container: '#container',
width: '100%',
height: '100%',
editable: true,
});
infographic.render(`
infographic list-row-simple-horizontal-arrow
data
items:
- label: 步骤1
desc: 开始
- label: 步骤2
desc: 进行中
- label: 步骤3
desc: 完成
`);

这段简洁的语法会生成一个专业的水平箭头流程图,带有标记的步骤——完全不需要设计技能。


将数据与信息图提示词一起发送给LLM,接收流式视觉输出:

你是一位信息图设计师。请使用AntV Infographic语法,
将这份季度销售数据转化为视觉摘要...

由于语法是声明式的且支持渐进式渲染,你可以:

  • 随数据变化更新信息图
  • 将AI分析结果直接流式输出为视觉效果
  • 构建交互式数据探索工具

创建引人入胜的学习材料:

  • 带有视觉流程的过程解释
  • 设计精美的对比表格
  • 带有上下文可视化的统计数据

用自动化生成替代幻灯片设计时间:

  • KPI摘要
  • 时间线可视化
  • 组织架构图
  • 产品对比矩阵

Terminal window
npm install @antv/infographic
import { Infographic } from '@antv/infographic';
const infographic = new Infographic({
container: '#container',
width: '100%',
height: '100%',
editable: true,
});
infographic.render(`
infographic list-row-simple-horizontal-arrow
data
items:
- label: 调研
desc: 收集需求
- label: 设计
desc: 创建原型
- label: 开发
desc: 实现功能
- label: 部署
desc: 发布上线
`);

访问 Gallery(示例库) 浏览可用模板,为你的项目找到起点。


项目包含一个 AI Agent 界面,你可以:

  1. 用自然语言描述你想要的效果
  2. 实时观看信息图生成过程(流式)
  3. 使用内置编辑器编辑结果
  4. 导出为SVG或其他格式

对于构建AI应用的开发者,prompt.md 文件提供了优化的系统提示词,便于LLM集成。


AntV由蚂蚁集团发起,自2017年开始开源,通过将图形语法理论嵌入JavaScript,重新定义了数据可视化。

AntV生态系统包括:

  • G2 — 图形语法统计图表
  • G6 — 图可视化引擎
  • L7 — 地理空间可视化
  • S2 — 电子表格式可视化
  • Infographic — AI原生信息图生成

特性AntV InfographicCanvaD3.jsMermaid
AI原生语法
流式渲染
内置模板200+丰富有限
声明式部分
SVG输出默认导出默认SVG
可自托管
学习曲线
可编辑性内置编辑器代码代码


AntV Infographic代表着数据可视化领域的重要进步,让开发者和AI系统都能更轻松地进行可视化创作。

对于开发者: 它提供了声明式语法,无需设计技能就能产出专业效果。

对于AI开发者: 其流式兼容、容错的语法非常适合LLM生成的视觉内容。

对于企业: MIT许可和自托管选项提供了灵活性,避免供应商锁定。

如果你正在构建任何涉及数据可视化展示的项目——报告、仪表盘、演示文稿或AI生成内容——AntV Infographic值得加入你的工具箱。


资源链接:

从一份招聘要求谈起:AI 时代软件工程师的核心竞争力到底是什么?

当我们谈论 AI Software Engineer 时,大多数人会立刻想到深度学习框架、Python 熟练度,或者多年的机器学习模型经验。然而,在分析了真实的招聘信息和行业趋势后,我发现了一个深刻的洞察:真正区分优秀 AI 工程师的素质并非纯粹的技术能力——而是根本性的人类特质。

让我分享一份最近引起我注意的招聘信息,它完美地诠释了这一观点。

AI Software Engineer Skills


主要负责 AI 产品与服务的研发,围绕业务场景进行系统设计与开发,提供满足业务需求的解决方案,能够快速、低成本和持续交付可靠、稳定、可扩展的业务系统。

  • 全日制大学本科及以上学历,计算机、通信等相关专业
  • 至少熟悉一种开发语言,包括但不限于 Java、Python、Go、TypeScript 等
  • 对驱动 AI 自主开发产品和服务有实际落地的实践经验,能够将 AI 能力有效融入实际工作流程
  • 具备良好的工程素养,对代码质量、系统稳定性和可维护性有基本追求
  1. 责任心强:对交付结果负责,能持续跟进问题直至闭环
  2. 好奇心与学习能力:对新技术、新工具保持敏感度,愿意主动探索并快速上手
  3. 实践与执行能力:能将想法快速落地为可运行、可验证的系统或功能
  4. 规划能力:能够对工作任务进行合理拆解、自主演进与时间安排管理
  5. 沟通与分享意识:乐于交流技术方案与经验,具备跨角色协作能力

为什么 AI 时代软技能比硬技能更重要

Section titled “为什么 AI 时代软技能比硬技能更重要”

这里存在一个讽刺的事实:随着 AI 越来越擅长写代码,纯粹编码技能的价值反而在下降。AI 无法复制的是那些独特的人类特质:

  • 判断力 — 知道何时应用 AI,何时需要人类洞察
  • 责任心 — 对结果负责,而不仅仅是产出
  • 好奇心 — 问”为什么”和”如果…会怎样”,而不仅仅是”怎么做”

根据 IEEE Spectrum 的 2025 年 AI 就业报告,随着 GitHub Copilot 等工具被采用,技能组合正在向”独特的人类技能,如伦理推理或领导力”转变。

DataCamp 的分析强调,AI 工程师需要强大的沟通能力来”有效地向非技术利益相关者传达复杂的 AI 概念”。这不是可选项——而是必备项。


含义:你不只是写代码——你对结果负责。当凌晨 2 点系统出问题时,你已经在调查了,而不是等着别人给你分配工单。

实践中的体现

  • 跟进问题完整的生命周期,而不是”把代码扔过墙”就完事
  • 主动监控你构建的系统
  • 对成功和失败都承担责任

为什么 AI 无法替代:AI 可以生成代码,但它感受不到生产事故的压力,也体会不到为用户交付真正价值的满足感。

含义:AI 领域发展速度极快。六个月前的最先进技术现在已经是基线。你必须有内在动力去学习,而不是因为经理安排了培训课程。

实践中的体现

  • 周末自己尝试新工具(Claude Code、Cursor、GitHub Copilot)
  • 阅读研究论文,而不仅仅是文档
  • 问”这个为什么有效?“而不只是”我怎么用它?”

复利效应Anthropic 的最佳实践强调,与 AI Agent 协作是一项随时间发展的技能。持续迭代和改进的好奇心将新手与专家区分开来。

含义:没有执行的想法毫无价值。你能在几天而不是几个月内把一个概念变成可工作的原型吗?

实践中的体现

  • 快速构建 MVP 来验证假设
  • 知道什么时候”足够好”真的就足够好
  • 迭代交付而不是等待完美

AI 放大效应:借助 AI 编码助手,执行速度已成为超能力。根据 JetBrains 的指南,能有效引导 AI Agent 的开发者比手动编写所有代码的人快 10 倍。

含义:将复杂问题分解成可管理的小块,有效排序工作,并现实地管理时间。

实践中的体现

  • 将一个功能分解成具体的、可测试的任务
  • 了解依赖关系和关键路径
  • 现实地估算(而不是乐观地)

为什么在 AI 时代这很重要Medium 上关于 Agent 工作流的指南强调使用”计划-行动-反思”工作流。结构越清晰,AI Agent 表现越好。

含义:孤立的技术卓越毫无价值。你能向非技术利益相关者解释你的决策吗?你能指导初级开发者吗?你能写出别人真正想读的文档吗?

实践中的体现

  • 写清晰、简洁的文档
  • 建设性地参与代码评审
  • 在团队会议或博客文章中分享学习成果

乘数效应:能有效沟通的开发者将其影响力倍增到整个组织。分享的知识是被放大的知识。

虽然没有明确列出,但有一个隐含的要求贯穿所有其他素质:适应能力。随着 AI 领域的演进,愿意改变工具、方法,甚至心智模型。


对比分析:传统工程师 vs AI 时代工程师

Section titled “对比分析:传统工程师 vs AI 时代工程师”
维度传统软件工程师AI 时代软件工程师
主要工具IDE + 搜索引擎IDE + AI 助手 + Agent
代码来源大部分自己写混合(人机协作)
调试方式阅读堆栈跟踪提示 AI 分析
学习曲线深入掌握一个技术栈持续适应新工具
关键差异化因素技术深度判断力 + 沟通 + 执行
职业发展高级 IC 或经理Agent 编排者 + 技术负责人

  1. 建立 AI 辅助项目组合:展示你能有效利用 AI 工具,而不仅仅是从头编码
  2. 记录你的决策过程:写博客分享为什么选择某些方法,而不仅仅是你构建了什么
  3. 展示跨职能协作:突出你与设计师、PM 和业务利益相关者合作的项目
  4. 展示持续学习:你的 GitHub 应该有最近的实验,而不仅仅是多年前的代码
  1. 重新设计面试问题:询问候选人如何在 AI 辅助下解决问题,而不仅仅是算法谜题
  2. 明确评估软技能:结构化行为面试评估责任心、好奇心和沟通能力
  3. 重视副项目:正如 Claude Code 的创造者 Boris Cherny 所发现的,副项目通常比简历资历更能揭示真正的能力
  1. 选择一个 AI 工具并精通它:无论是 Claude Code、Cursor 还是 GitHub Copilot,深度专业知识胜过广泛熟悉
  2. 练习解释技术概念:开始写博客、做内部分享或指导初级员工
  3. 端到端负责某件事:自愿承担一个从设计到生产你都负责的项目

2025 年的 AI Software Engineer 不是与 AI 竞争的人——而是协调 AI 以实现双方单独都无法完成的结果的人。

我们分析的招聘信息说得完全正确:技术能力是基线。将出色候选人与仅仅合格的候选人区分开来的是那六种 AI 无法复制的素质:

  • 责任心 驱动结果
  • 好奇心 推动创新
  • 执行力 交付产品
  • 规划能力 管理复杂性
  • 沟通能力 倍增影响力
  • 适应能力 确保持久性

未来属于那些将 AI 作为合作伙伴拥抱,同时培养使伟大软件成为可能的不可替代的人类特质的工程师。


🎚️ CodexBar:在 macOS 菜单栏实时监控 Claude Code 和 OpenAI Codex 用量

CodexBar 是由 Peter Steinberger (@steipete) 开发的一款轻量级 macOS 15+ 菜单栏应用,让你的 AI 编程助手使用限额始终可见。同时监控 OpenAI Codex 和 Claude Code 的限制——包括 5 小时会话窗口和每周配额——无需登录任何仪表板。

  • 双服务商支持:同时追踪 Codex(5 小时/每周 + 积分)和 Claude Code(会话/每周 + Sonnet 专属限制)
  • 零登录要求:直接读取本地 CLI 输出——无需密码,无需浏览器会话
  • 实时可视化:从菜单栏查看剩余 Token、重置计时器和账户信息

如果你正在积极使用 Claude Code 或 OpenAI Codex 进行开发,很可能遇到过意外触发速率限制的情况。以下是 CodexBar 必不可少的原因:

  1. 避免工作流中断 在开始大型编码会话之前了解剩余配额。不再在复杂重构过程中遭遇”速率限制”的突然惊吓。

  2. 追踪多重时间窗口 两个服务都使用重叠的 5 小时和每周窗口。CodexBar 可视化显示两者,让你准确了解限制何时重置。

  3. 监控 Sonnet 专属限制(Claude) Claude Code 的 Sonnet 模型有自己的每周上限。CodexBar 单独显示,让你能策略性地选择何时使用哪个模型。

  4. 积分可见性(Codex) 在速率限制旁查看付费积分余额。了解你是在消耗免费层还是付费用量。


Terminal window
brew install --cask steipete/tap/codexbar

更新命令:

Terminal window
brew upgrade --cask steipete/tap/codexbar

GitHub Releases 下载即用型 zip 文件。


  • macOS 15+(Sequoia 或更高版本)
  • Codex 用户:需安装 Codex CLI ≥ 0.55.0 并登录
  • Claude Code 用户:需通过 claude --version 安装 Claude CLI,并通过 claude login 登录

CodexBar 首次启动时自动检测已安装的 CLI:

  • Codex 默认启用
  • 检测到 claude 二进制文件时自动开启 Claude

CodexBar 在本地 PTY(伪终端)中运行 claude /usageclaude /status 来提取:

  • 会话使用百分比
  • 每周使用百分比
  • Sonnet 专属每周限制
  • 重置倒计时
  • 账户邮箱、组织和登录方式

隐私说明:一切都在本地完成。除 Claude CLI 本身的网络调用外,无任何额外网络请求。

CodexBar 优先使用 Codex app-server RPC 获取速率限制和积分。如果 RPC 不可用,则回退到 PTY 抓取 codex /status

可选的”通过网页访问 OpenAI”设置可额外显示:

  • 代码审查剩余次数
  • 用量分解
  • 积分使用历史

这会重用已登录的 chatgpt.com 会话(通过 Safari/Chrome cookie 导入)——不存储密码。


菜单栏图标使用巧妙的双条系统:

条形显示内容
顶部条5 小时窗口配额(如果每周配额用尽则显示积分条)
底部条每周窗口配额(细线)

图标变体:

  • Codex 模式:标志性的”眼睑眨动”设计
  • Claude 模式:显示 Claude 的缺口/腿部变体
  • 错误/未知状态:图标变暗(无混乱文字)

菜单 → “刷新频率…” 提供以下预设:

  • 仅手动
  • 1 分钟
  • 2 分钟
  • 5 分钟(默认)
  • 15 分钟

手动模式仍支持从菜单点击”立即刷新”。


CodexBar 以隐私为设计核心:

  • 不扫描磁盘 - 参见 issue #12 的审计说明
  • 服务商数据隔离 - Claude 信息永不与 Codex 信息混合
  • 仅读取本地 CLI - 账户详情直接来自 CLI 输出
  • 不存储密码 - 可选的网页访问使用现有浏览器 cookie

CodexBar 是 steipete 开发者生产力工具套件的一部分:

工具描述
Trimmy扁平化多行 shell 代码片段,一键粘贴执行
MCPorterMCP 服务器的 TypeScript 工具包 + CLI

灵感来源:ccusage - Claude Code 用量成本追踪 CLI 工具(我们之前介绍过)。


场景行为
还没有 Codex 用量显示”No usage yet” - 运行一个提示后刷新
未安装 Claude CLI显示”Claude CLI is not installed”
未登录显示相应的登录错误
重置时间解析失败当时区信息缺失时显示原始文本

CodexBar 解决了 AI 编程助手重度用户的真实痛点:

  • ✅ 一眼查看 Codex 和 Claude Code 限制
  • ✅ 同时监控 5 小时会话和每周窗口
  • ✅ 追踪 Sonnet 专属限制和付费积分
  • ✅ 零登录要求 - 读取本地 CLI 数据
  • ✅ 隐私优先设计,不扫描磁盘

通过 brew install --cask steipete/tap/codexbar 安装,从此不再被速率限制打个措手不及。


📌 想了解更多 Claude Code 技巧、用量优化策略和 AI 开发者工具?关注我们的频道,获取最新的 AI 辅助开发工作流指南!

Clawdis:在 WhatsApp、Telegram 和 Web 上运行的个人 AI 助手

Clawdis:在 WhatsApp、Telegram 和 Web 上运行的个人 AI 助手

Section titled “Clawdis:在 WhatsApp、Telegram 和 Web 上运行的个人 AI 助手”

🦞 EXFOLIATE! EXFOLIATE! — 这是 Clawdis 充满趣味的战斗口号。Clawdis 是由 Peter Steinberger(@steipete)创建的开源个人 AI 助手。与云托管的 AI 服务不同,Clawdis 在你自己的设备上运行,连接到你日常使用的消息平台:WhatsApp、Telegram 和 Web

Clawdis 是你个人 AI 助手的本地优先控制平面。你可以把它想象成一个基础设施,让你通过以下方式与 AI 代理交互:

  • WhatsApp — 发送消息,获得智能回复
  • Telegram — 通过 Telegram Bot API 进行机器人对话
  • WebChat — 基于浏览器的桌面界面
  • macOS 应用 — 菜单栏控制,支持语音唤醒和按住说话
  • iOS 节点 — Canvas 界面与语音触发转发

“Clawdis” 这个名字是一个巧妙的混成词:CLAW + TARDIS — 因为每只太空龙虾都需要一台时空机器!

Clawdis 将你的 AI 助手带到你已经在使用的通讯平台。无需切换到专用应用 — 只需从 WhatsApp 或 Telegram 发送消息,你的助手就会回复。

在 macOS 和 iOS 上,Clawdis 支持:

  • 语音唤醒 — 说出唤醒词开始对话
  • 按住说话叠加层 — 快速语音交互
  • 本地语音识别 — 隐私保护,设备端处理

一个可以从代理控制的可视化工作区。Canvas 渲染实时内容,支持 A2UI(代理到 UI)通信,提供丰富的交互体验。

Clawdis 内置以下功能:

  • 浏览器控制 — 自动化网页交互
  • 媒体处理 — 处理图片、音频和视频
  • 工具流式传输 — 实时工具执行反馈
  • 智能家居集成 — Philips Hue、Eight Sleep 等

Gateway(控制平面)拥有所有状态并在本地运行。其他所有内容 — 节点、界面和集成 — 都连接到它:

你的界面
┌───────────────────────────────┐
│ Gateway │ ws://127.0.0.1:18789
│ (控制平面) │ tcp://0.0.0.0:18790(可选 Bridge)
└──────────────┬────────────────┘
├─ Pi 代理(RPC)
├─ CLI(clawdis …)
├─ WebChat(浏览器)
├─ macOS 应用(Clawdis.app)
└─ iOS 节点(Canvas + 语音)
  • Node.js 22+
  • pnpm 包管理器
Terminal window
# 克隆仓库
git clone https://github.com/steipete/clawdis.git
cd clawdis
# 安装依赖
pnpm install
pnpm build
pnpm ui:build
# 链接 WhatsApp(凭证存储在 ~/.clawdis/credentials)
pnpm clawdis login
# 启动 gateway
pnpm clawdis gateway --port 18789 --verbose
# 发送消息
pnpm clawdis send --to +1234567890 --message "Hello from Clawdis"
# 与助手对话
pnpm clawdis agent --message "今天有什么安排?" --thinking high

创建 ~/.clawdis/clawdis.json

{
routing: {
allowFrom: ["+1234567890"] // WhatsApp 白名单
},
telegram: {
botToken: "YOUR_BOT_TOKEN" // Telegram 集成
}
}

在 WhatsApp、Telegram 或 WebChat 中使用这些命令:

命令描述
/status健康状态和会话信息
/new/reset重置会话
/think <level>设置思考级别(off/minimal/low/medium/high)
/verbose on/off切换详细模式
/restart重启 gateway(仅限所有者)
/activation mention/always群组激活切换

Clawdis 是为 Clawd 🦞 构建的,这是 Peter Steinberger 的 AI 助手。Clawd 被描述为:

“Claude 加上一个 ‘w’ 和一个龙虾表情。”

Clawd 运行在维也纳的一台 Mac Studio 上,使用 Claude Opus 4.5,体现了四个核心价值观:

  1. 务实的帮助 — 专注于高效解决问题
  2. 诚实直接 — 坦诚反馈,愿意表达不同意见
  3. 友谊 — 协作伙伴关系,而非仅仅是工具
  4. 学习成长 — 将错误视为学习机会
  • 发送 WhatsApp 消息:“检查我的 iOS 应用发布清单”
  • Clawd 检查你的项目,运行测试,并报告状态
  • “关掉除卧室外的所有灯”
  • “将卧室温度设置为 20°C”
Terminal window
# 设置 Gmail 钩子
clawdis hooks gmail setup --account you@gmail.com
clawdis hooks gmail run

在配置中启用浏览器控制:

{
browser: {
enabled: true,
controlUrl: "http://127.0.0.1:18791",
color: "#FF4500"
}
}
特性ClawdisChatGPT App传统机器人
本地优先
WhatsApp 集成不一定
Telegram 集成
语音唤醒(macOS/iOS)
Canvas/可视化工作区
开源不一定
自定义代理/技能有限不一定

Clawdis 支持基于技能的架构:

  • 工作区根目录~/clawd(可配置)
  • 注入的提示词AGENTS.mdSOUL.mdTOOLS.md
  • 技能目录~/clawd/skills/<skill>/SKILL.md

macOS 应用是命令中心:

  • 菜单栏控制 Gateway 健康状态
  • 语音唤醒 带按住说话叠加层
  • WebChat 和调试工具
  • 远程 gateway 控制 通过 SSH

构建和运行:

Terminal window
./scripts/restart-mac.sh
  • 白名单:通过 routing.allowFrom 限制谁可以与你的助手交互
  • 本地优先:Gateway 默认在 127.0.0.1 运行
  • 凭证存储:WhatsApp 会话存储在 ~/.clawdis/credentials
  • Bridge 安全:可选的 TCP bridge,支持移动节点配对

Clawdis 是代理无关的,但围绕 Pi(基于 RPC 的代理运行时)设计,通常使用 Claude 模型。你可以配置你偏好的 AI 提供商。

Q:我可以将 Clawdis 用于团队/商业用途吗?

Section titled “Q:我可以将 Clawdis 用于团队/商业用途吗?”

Clawdis 设计为单用户个人助手。对于多用户场景,你需要运行多个独立实例。

Q:WhatsApp 集成是否违反其服务条款?

Section titled “Q:WhatsApp 集成是否违反其服务条款?”

Clawdis 通过 Baileys 使用 WhatsApp Web 协议。请负责任地使用,风险自负。

~/clawd/skills/<skill-name>/ 中创建一个新文件夹,包含一个 SKILL.md 文件,描述技能的功能和指令。

Terminal window
# 重新认证
pnpm clawdis login

检查端口 18789 是否被占用:

Terminal window
lsof -i :18789

确保 Bridge 正在运行,且两台设备在同一网络上。


Clawdis 代表了一种令人兴奋的个人 AI 助手方法 — 本地优先、多平台、与你的日常通讯工具深度集成。如果你正在寻找一个尊重数据主权的私密、永远在线的 AI 伴侣,同时提供强大功能,不妨试试 Clawdis。

🦞 祝你与太空龙虾助手聊天愉快!

🐇 CodeRabbit:现代开发团队的领先 AI 代码审查工具

CodeRabbit 是 GitHub 和 GitLab 上安装量最大的 AI 代码审查应用,服务超过 10,000 家客户,覆盖 200 万个代码仓库,审查了 1300 万个拉取请求。它提供上下文感知的代码分析,能够学习团队偏好,在 bug、安全问题和代码异味进入生产环境之前捕获它们。

  • 多平台集成:支持 GitHub、GitLab、Azure DevOps 和 Bitbucket,2 次点击即可安装
  • 智能审查:AI 能够识别 bug,同时基于学习到的团队模式过滤误报
  • 40+ 集成分析器:内置代码检查器、安全扫描器和代码质量工具,一站式体验

为什么 2025 年 AI 代码审查如此重要

Section titled “为什么 2025 年 AI 代码审查如此重要”

Claude Code、GitHub Copilot 和 Cursor 等 AI 编码助手的爆发式增长创造了一个新的瓶颈:代码审查。当开发者可以以 5-10 倍的速度生成代码时,人工审查者成为了限制因素。根据最新的 GitHub 数据,CodeRabbit 已审查超过 632,000 个不同的拉取请求,使其成为现代开发工作流的关键组成部分。

  1. 人力瓶颈:高级开发者每周花费 6 小时以上审查 PR
  2. 质量不一致:不同审查者发现不同的问题
  3. 上下文切换:中断审查会打断深度工作
  4. 遗漏边缘情况:疲惫的人类会遗漏 AI 能够捕获的细微 bug
方面人工审查AI 审查
速度数小时到数天数分钟
一致性可变确定性
覆盖范围选择性关注全面覆盖
可用性工作时间24/7
学习个人经验集体模式

当你打开一个 PR 时,CodeRabbit 自动提供:

  1. AI 生成摘要:简洁概述变更内容和原因
  2. 逐文件详解:对每个修改文件的详细分析
  3. 架构图:代码关系的可视化表示
  4. 风险评估:标记需要额外关注的高影响变更

CodeRabbit 通过以下方式建立理解:

  • 代码图分析:映射代码库中的依赖关系
  • 历史学习:根据团队反馈和接受的建议不断改进
  • 自定义指南:通过 YAML 配置强制执行项目特定规则
  • 外部上下文:集成 Jira、Linear 和 GitHub Issues 进行需求验证

不仅仅是抱怨 - 提供可操作的解决方案:

🔧 问题:第 47 行存在潜在的空指针异常
AI 修复:在解引用 user 对象之前添加空值检查
[应用修复] [忽略] [了解更多]

# 1. 从 GitHub Marketplace 或 GitLab 安装
# 访问:https://github.com/apps/coderabbitai
# 2. 在仓库根目录创建 .coderabbit.yaml
reviews:
auto_review: true
request_changes_workflow: true
high_level_summary: true
chat:
enabled: true
path_instructions:
- path: "src/**/*.ts"
instructions: "确保 TypeScript 严格模式合规"
- path: "tests/**"
instructions: "验证边缘情况的测试覆盖"
Terminal window
# 通过 VS Code 扩展市场安装
# 搜索:"CodeRabbit"
Terminal window
# macOS
brew install coderabbit-cli
# Windows
winget install CodeRabbit.CLI

基于 BlueDot 2025 年独立评测

工具检测率误报率最适用于
CodeRabbit中高PR 摘要,平衡审查
GitHub Copilot极低零摩擦设置
Greptile最大化问题检测
Codacy可定制仪表板
Qodo Merge自托管安全需求

“CodeRabbit 提供出色的可视化和概述,解释质量强,同时保持可管理的误报率。”


// PR 中提交的原始代码
const query = `SELECT * FROM users WHERE id = ${userId}`;
// CodeRabbit 评论:
// 🔴 严重:检测到 SQL 注入漏洞
// 这种字符串插值允许恶意输入。
//
// 推荐修复:
const query = `SELECT * FROM users WHERE id = $1`;
// 将 userId 作为参数化查询参数传递
# 原始代码
result = []
for item in large_list:
if condition(item):
result.append(process(item))
# CodeRabbit 建议:
# 💡 性能:考虑使用列表推导式或生成器
result = [process(item) for item in large_list if condition(item)]
# 对于大数据集快 15-30%
// 原始函数
func CalculateDiscount(price float64, tier int) float64 {
// 实现
}
// CodeRabbit 评论:
// 📝 公共函数缺少文档
// 添加文档字符串说明:
// - 有效的 tier 值 (1-5)
// - 返回值(折扣后价格,非百分比)
// - 边缘情况(负价格,无效 tier)

方案价格功能
免费版$0基础 PR 摘要,公共仓库
Lite$12/开发者/月基础审查,每月 50 个 PR
Pro$24/开发者/月全部功能,无限 PR,优先支持
开源版免费公共仓库享受完整 Pro 功能

  • SOC 2 Type II 认证:企业级安全控制
  • GDPR 合规:支持数据隐私法规
  • 零数据保留:代码仅在内存中处理,不使用你的数据进行训练
  • 端到端加密:所有通信使用 SSL/TLS
  • 组织隔离:完整的租户分离

.coderabbit.yaml
instructions:
global: |
- 始终检查正确的错误处理
- 强制执行一致的命名规范
- 标记超过 30 天的 TODO 注释
path_filters:
include:
- "src/**"
- "lib/**"
exclude:
- "**/*.generated.*"
- "vendor/**"
language_specific:
python:
style_guide: google
max_line_length: 120
typescript:
strict_null_checks: true
# 智能合并前检查(自然语言)
checks:
- "确保所有新函数都有单元测试"
- "阻止生产代码中包含 TODO 注释的 PR"
- "对 auth/* 文件的更改需要审批"

CodeRabbit 开箱即用效果很好。在自定义之前让它运行 2 周,了解基线行为。

  • 👍 接受你同意的建议
  • 👎 忽略不相关的评论
  • 💬 回复解释 CodeRabbit 遗漏的上下文

为代码库的不同部分定制审查:

  • /security/payments 使用更严格的规则
  • /experiments/prototypes 使用更轻松的标准

设置合并前检查以阻止不符合关键标准的 PR,但避免过度自动化导致开发者沮丧。

AI 审查不能替代人类判断。使用 CodeRabbit 来:

  • 捕获机械问题(格式、语法、常见 bug)
  • 标出需要人工关注的区域
  • 让人工审查者专注于架构和设计讨论

  1. 业务上下文盲点:AI 可能不理解某些代码存在的原因
  2. 细微的跨文件 bug:可能遗漏复杂的交互问题
  3. 架构决策:无法评估高层设计选择
  4. 新颖模式:可能标记正确但非常规的方法

正如一项基准测试指出的:“没有任何工具捕获到 S3 区域配置问题,这表明 AI 审查者仍然难以处理细微但重要的问题。”


  1. 安装:访问 coderabbit.ai → 添加到 GitHub/GitLab
  2. 审查默认值:在不做更改的情况下让它运行 5-10 个 PR
  3. 自定义:添加 .coderabbit.yaml 进行项目特定规则配置
  4. 迭代:提供反馈以逐步改进建议

随着 1300 万个拉取请求被审查并持续增长,CodeRabbit 代表了 AI 辅助代码审查的当前最先进水平。无论你是独立开发者还是大型团队的一员,都值得探索 AI 如何增强你的审查流程,同时不替代真正重要的人类洞察。


Rube:连接 AI 与 500+ 应用的 MCP 服务器

Rube MCP 服务器 - AI 自动化平台

Rube:连接 AI 与 500+ 应用的 MCP 服务器

Section titled “Rube:连接 AI 与 500+ 应用的 MCP 服务器”

“连接万物,触发一切。” — Rube 的核心理念,让 AI 自动化如同日常对话般简单自然。

在 AI 自动化快速发展的今天,Rube by Composio 作为一款革命性的模型上下文协议(MCP)服务器脱颖而出。它在 AI 助手与 500 多款商业应用之间架起桥梁,将自然语言指令转化为 Gmail、Slack、GitHub、Notion 等工具中的实际操作。

Rube 是由 Composio 开发的 MCP 服务器,充当 AI 工具与 SaaS 应用之间的通用连接器。无需在不同应用间手动切换,也不必编写复杂的集成代码,只需用自然语言告诉 AI 助手你的需求,Rube 会自动完成执行。

可以将 Rube 想象成 AI 的「数字世界万能遥控器」。它将简单的中文或英文指令翻译成正确的 API 调用,无缝处理认证、权限和多步骤工作流程。

Rube 连接 500+ 款应用,包括:

分类应用
通讯工具Gmail、Slack、WhatsApp、Discord
生产力工具Notion、Google Calendar、Airtable、ClickUp
开发工具GitHub、Linear、Jira、GitLab
AI 平台Claude、OpenAI、Cursor、VS Code
自动化平台N8N、Zapier、Make(Integromat)
社交媒体Twitter/X、LinkedIn、Buffer
CRM 与销售Salesforce、HubSpot、Pipedrive

Rube 与主流 AI 开发环境无缝协作:

  • Claude Desktop(免费版、Pro 版、Max 版)
  • Cursor IDE(支持一键安装)
  • VS Code(通过 ChatGPT 或 Claude 扩展)
  • Claude Code(CLI 命令行设置)
  • 任何兼容 MCP 的客户端

这种设计的优势在于可移植性:切换 AI 客户端时,你的所有集成配置会自动跟随。

无需编程,用自然语言表达意图即可:

“给 Airtable 中最新注册用户发送欢迎邮件”

“创建一个 Linear 工单,标题为’结账流程 Bug’,分配给前端团队”

“总结今天的未读邮件,在 Slack 的 #daily 频道发布摘要”

Rube 擅长编排跨多个应用的复杂工作流:

从 Gmail 获取数据 → 在 GitHub 创建 Issue → 在 Slack 发布更新

这种跨应用能力将孤立的任务转化为连贯的自动化工作流。

  • OAuth 2.1 认证 - 现代化、安全的认证流程
  • 端到端加密 - Token 在存储和传输中均加密
  • SOC 2 合规 - 基于 Composio 安全基础设施构建
  • 零凭证存储 - 你的凭证从不接触 Composio 服务器

最快的安装方式:

Terminal window
npx @composio/rube setup

这个交互式设置会:

  1. 自动检测你的 AI 客户端
  2. 配置 MCP 端点
  3. 引导你完成初始应用认证

如需更多控制权,可通过 npm 全局安装:

Terminal window
npm install -g @composio/rube
rube setup

Cursor(一键安装):

  1. 打开 Cursor 设置
  2. 导航到 MCP Servers
  3. 点击「Add Server」并粘贴 Rube URL:https://rube.app/mcp?agent=cursor

Claude Desktop:

Terminal window
npx @composio/mcp@latest setup "https://rube.app/mcp" "rube" --client claude

Claude Code:

Terminal window
rube setup --client claude-code

VS Code:

  1. 安装 Claude 或 ChatGPT 扩展
  2. 配置 MCP 服务器 URL:https://rube.app/mcp?agent=vscode

Rube 将配置存储在 MCP 客户端的设置中。典型配置如下:

{
"mcpServers": {
"rube": {
"url": "https://rube.app/mcp",
"transport": "streamableHttp"
}
}
}
  • 汇总每日邮件并创建待办事项
  • 自动回复常见咨询
  • 将重要邮件转发到 Slack 频道
  • 从邮件内容创建日历事件
  • 从代码注释创建 GitHub Issue
  • 根据提交信息更新 Linear/Jira 工单
  • 向团队频道发布部署通知
  • 跨平台同步文档
  • 将文章保存到 Notion 并附带 AI 生成摘要
  • 自动整理研究材料
  • 从多个来源创建摘要报告
  • 从分散信息构建知识库
  • 撰写并定时发布推文
  • 跨平台发布内容
  • 监控提及并创建回复模板
  • 分析互动指标
  • 每日向 Slack 发送站会摘要
  • 从日历事件在 Notion 创建会议笔记
  • 在项目管理工具间同步任务
  • 自动化新员工入职流程

先从单应用命令入手,再构建复杂工作流:

"给这封邮件加星标" → "给这封邮件加星标并创建明天的提醒"

只连接你实际使用的应用。随着需求增长,可以随时添加更多集成。

自动化关键工作流前:

  • 尽可能使用测试账户
  • 从只读操作开始
  • 逐步开启写入权限

Rube 为常见场景提供预设的提示模板。在创建自定义提示前,先在 rube.app 探索现有模板。

团队部署时:

  • 使用共享 Rube URL 确保访问一致
  • 需要时使用自己的 API 密钥
  • 配置敏感应用的基于角色的访问控制
功能RubeZapiern8n自定义 MCP
自然语言控制✅ 原生支持❌ 不支持❌ 不支持⚠️ 需手动
AI 客户端集成✅ 内置❌ 不支持⚠️ 有限✅ 支持
设置时间5 分钟30 分钟1+ 小时数小时/天
支持应用数500+7000+400+视情况
定价免费(Beta)$29+/月免费/付费自建
多步骤工作流✅ 支持✅ 支持✅ 支持✅ 支持
无代码✅ 是✅ 是⚠️ 部分❌ 否
  • 你主要使用 AI 助手工作(Claude、Cursor 等)
  • 你希望用自然语言控制自动化
  • 你需要快速设置、最小配置
  • 你重视跨 AI 客户端的可移植性
  • 你需要可视化工作流构建器(Zapier、n8n)
  • 你需要访问 7000+ 款应用(Zapier)
  • 你需要自托管解决方案(n8n)
  • 你有复杂的自定义集成需求

问:Rube 免费吗? 答:是的,Rube 目前在 Beta 阶段免费使用。后续将推出具有慷慨使用额度的付费版本。

问:我的数据会怎样处理? 答:Rube 使用端到端加密。你的凭证从不存储在 Composio 服务器上——Token 经过加密,仅用于调用底层 API。

问:我可以在自定义 AI 应用中使用 Rube 吗? 答:可以!任何兼容 MCP 的客户端都可以使用标准端点 URL 连接到 Rube。

问:如何断开应用连接? 答:访问 rube.app/connections 管理已连接的应用。

问题:MCP 服务器无响应

  • 验证网络连接
  • 检查 Rube URL 配置是否正确
  • 重启 AI 客户端

问题:认证失败

  • 通过 rube.app 重新认证问题应用
  • 确保 OAuth 权限未被撤销
  • 尝试断开并重新连接应用

问题:操作未执行

  • 检查目标应用是否具有所需权限
  • 确认自然语言命令清晰具体
  • 查看 Rube 的响应中是否有错误信息

Rube 代表了我们与商业应用交互方式的范式转变。通过将模型上下文协议的强大能力与 Composio 丰富的集成平台相结合,它将 AI 助手从对话伙伴转变为运营利器。

无论你是希望优化工作流程的开发者、需要自动化团队流程的管理者,还是追求生产力提升的个人用户,Rube 都提供了一条通往 AI 驱动自动化的无障碍路径。免费的 Beta 阶段正是探索的最佳时机——当你的 AI 真正能够「连接万物,触发一切」时,无限可能将由此展开。


最后更新:2025 年 12 月 25 日

Slidev-AI:用大模型魔法将创意变成专业演示文稿

Slidev-AI:用 AI 将创意转化为专业演示文稿

创建演示文稿一直是一项耗时的工作——设计布局、格式化内容、确保视觉一致性。Slidev-AI 通过利用大语言模型技术,从自然语言描述生成优雅、开发者友好的演示文稿,彻底改变了这一局面。

Slidev-AI 封面


Slidev-AI 是一款开源 Web 应用程序,将大语言模型(LLM)的强大能力与 Slidev(一个深受开发者喜爱的基于 Markdown 的演示框架)相结合。它在 魔搭 ModelScope MCP&Agent 大赛 中荣获最佳应用奖

“从创意到演示文稿再到内容分发——我们的使命是缩短这段距离。”

核心特性:

  • 自然语言输入:用日常语言描述您的演示文稿
  • Markdown 格式输出:生成干净的 Slidev Markdown,可进行版本控制
  • Web 原生演示:输出可在任何浏览器中查看
  • 开发者友好:专为偏好内容而非花哨设计的工程师和学者打造
  • OpenMCP 集成:作为 OpenMCP 生态系统的一部分,用于 Agent 开发

Slidev-AI 作为 OpenMCP 生态系统的一部分运行,展示了开发者如何构建专业化的 AI Agent。

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ 用户输入 │────▶│ LLM 引擎 │────▶│ Slidev 输出 │
│ (自然语言) │ │ (OpenAI API) │ │ (Markdown) │
└─────────────────┘ └─────────────────┘ └─────────────────┘
┌─────────────────┐
│ Web 预览 │
│ (浏览器) │
└─────────────────┘

系统提供:

  • NestJS 后端 API 处理 LLM 请求
  • Vue.js 前端实现交互式幻灯片创建
  • 实时预览生成的演示文稿
  • 导出功能便于分享

  • Node.js(或使用 Docker 容器化部署)
  • OpenAI API 密钥(或兼容的 LLM API)

Slidev-AI 推荐使用 Docker 部署,包含两个容器:

  • 后端:运行在 3001 端口的 NestJS API(SQLite + Puppeteer)
  • 前端:由 Nginx 服务的 Vite+Vue,运行在 8080 端口

步骤 1:配置环境

在仓库根目录创建 .env 文件:

Terminal window
OPENAI_API_KEY=your_key
OPENAI_BASE_URL=https://api.openai.com/v1
OPENAI_MODEL=gpt-4o-mini

步骤 2:构建并启动

Terminal window
git clone https://github.com/LSTM-Kirigaya/slidev-ai.git
cd slidev-ai
docker compose up -d --build

步骤 3:访问

  • 前端:http://localhost:8080
  • 后端 API:http://localhost:3001/api

使用场景描述
技术分享从演讲大纲生成会议幻灯片
学术演示为研究论文创建简约幻灯片
团队站会快速生成结构化状态更新幻灯片
文档转换将文档转换为演示格式
教程系列生成教育内容幻灯片
1. 用自然语言起草演讲大纲
2. 输入到 Slidev-AI:"创建一个关于 AI 编程助手的演示文稿,
包括:介绍、主要工具(Cursor、Claude Code)、
最佳实践和未来趋势"
3. 审查并完善生成的 Markdown
4. 导出并在任何浏览器中演示
  1. 具体明确:包含章节标题和要涵盖的关键点
  2. 迭代优化:根据初始输出优化提示词
  3. 自定义主题:Slidev 支持自定义 CSS 主题
  4. 版本控制:将生成的 Markdown 存储在 Git 中

特性Slidev-AI传统 PPT其他 AI 工具
输入方式自然语言手动设计多种
输出格式Markdown二进制 (.pptx)二进制/PDF
版本控制Git 友好困难有限
自定义完全 CSS 控制有限有限
Web 原生有时
开源是 (MIT)不定

为什么选择 Slidev-AI?

  • 开发者优先:Markdown 输出适合开发者工作流
  • OpenMCP 生态:可扩展的 Agent 架构
  • 社区驱动:活跃的开发和支持

问:支持哪些 LLM 提供商? 答:任何兼容 OpenAI 的 API 都可以使用。通过 OPENAI_BASE_URL 环境变量配置。

问:可以自托管吗? 答:可以!完全支持 Docker 部署,并提供持久化卷。

问:我的数据安全吗? 答:Slidev-AI 在本地运行。您的演示文稿留在您的基础设施上。

问:可以自定义输出主题吗? 答:当然可以。Slidev 支持完整的 CSS 主题定制。

问题解决方案
端口 8080/3001 被占用编辑 docker-compose.yml 的 ports 部分
API 密钥错误验证 .env 文件配置
Puppeteer 问题检查 Docker 容器是否有足够内存


Slidev-AI 代表了开发者演示文稿创建的重大进步。通过将 LLM 智能与 Slidev 的优雅相结合,它消除了从创意到精美演示文稿之间的阻碍。

无论您是在准备会议演讲、学术报告还是团队更新,Slidev-AI 都能帮助您专注于内容,而 AI 负责处理格式。

立即开始:克隆仓库,配置您的 LLM API,体验演示文稿创建的未来。

Terminal window
git clone https://github.com/LSTM-Kirigaya/slidev-ai.git
cd slidev-ai && docker compose up -d --build

从创意到演示——由 AI 缩短距离。

SurfSense:NotebookLM、Perplexity 和 Glean 的开源替代方案

SurfSense 是一个开源的 AI 研究代理,将个人知识管理与强大的外部集成相结合。想象一下 NotebookLM + Perplexity + Glean——但完全由您掌控。自托管部署,连接 20+ 数据源,在不牺牲隐私的情况下获得带引用的答案。5 分钟带您全面了解。


现代研究者的困境:NotebookLM 处理文档很棒,Perplexity 擅长网络搜索,Glean 征服企业搜索——但如果您想要三者兼得,连接到您自己的数据,运行在您自己的基础设施上呢?

SurfSense 应运而生。上线仅数周,它就成为最热门的开源 AI 项目之一,提供统一的研究体验,同时尊重您的隐私。

SurfSense Cover


概念含义
个人知识库上传 50+ 种文件类型(文档、图片、视频)并进行语义搜索
混合搜索结合语义搜索和全文搜索,使用倒数排名融合获得更好结果
带引用的答案每个 AI 回复都包含来源引用,就像 Perplexity 一样
MCP 集成可扩展的插件架构,支持自定义数据源
基于角色的访问控制团队协作支持 Owner、Admin、Editor、Viewer 权限

1. 真正的数据所有权 与纯云解决方案不同,SurfSense 运行在您的基础设施上。您的文档、对话和研究永远不会脱离您的控制。

2. 20+ 开箱即用的集成 连接到:

  • 搜索引擎:SearxNG、Tavily、LinkUp
  • 生产力工具:Slack、Notion、Gmail、Google Calendar、Airtable
  • 开发工具:GitHub、Linear、Jira、ClickUp、Confluence
  • 媒体:YouTube、Discord
  • 企业级:Elasticsearch、BookStack、Luma

3. 100+ LLM 支持 通过 LiteLLM 支持任何模型——OpenAI、Anthropic、Gemini,或通过 Ollama 使用本地模型。无需改变工作流程即可切换提供商。

4. 播客生成 将任何对话或研究转换为播客。使用 Kokoro(本地 TTS)、OpenAI、Azure 或 Google Vertex AI 在约 20 秒内生成 3 分钟的音频摘要。

5. 高级 RAG 架构

  • 分层索引实现多级文档组织
  • 混合搜索结合语义和关键词匹配
  • 多种重排序器选项提高精度
  • 可扩展的代理工具注册表

方案 1:快速 Docker(最快)

Terminal window
docker run -d -p 3000:3000 -p 8000:8000 \
-v surfsense-data:/data \
ghcr.io/modsetter/surfsense:latest

访问地址:http://localhost:3000(前端)和 http://localhost:8000(API)

方案 2:Docker Compose(生产环境) 完整部署包含 PostgreSQL、Redis、Celery workers 和 pgAdmin 数据库管理。

方案 3:SurfSense Cloud 无需设置——直接注册他们的云服务即可立即访问。


  1. 启动和配置 安装后,导航到 localhost:3000 并配置您的 LLM 提供商(OpenAI API 密钥,或连接 Ollama 进行本地推理)。

  2. 连接您的数据源

    • 安装浏览器扩展以保存需要认证的网页
    • 通过 OAuth 链接 Slack、Notion、GitHub
    • 直接上传文件(支持 50+ 种格式)
  3. 开始研究 用自然语言提问。SurfSense 将:

    • 搜索您的个人知识库
    • 查询已连接的外部源
    • 综合信息并提供引用
    • 生成可分享的播客摘要
  4. 团队协作 邀请团队成员并分配适当的角色。在保持访问控制的同时共享研究集合。


后端技术栈

  • FastAPI 提供高性能异步 API
  • PostgreSQL + pgvector 实现混合搜索
  • Celery + Redis 处理后台任务
  • LangGraph + LangChain 进行代理编排

前端技术栈

  • Next.js + React + TypeScript
  • Tailwind CSS + Shadcn 实现现代 UI
  • WebSocket 实现实时更新

部署方案

  • Docker + Docker Compose 容器化
  • 包含 pgAdmin 进行数据库管理
  • 支持水平扩展

  • 浏览器扩展威力:跨浏览器扩展可以保存需要认证的页面(登录后的内容),这是普通爬虫无法访问的。
  • 播客工作流:使用播客生成功能制作每日研究摘要——通勤时收听最佳。
  • 模型热切换:在对话中途切换 GPT-4、Claude 或本地 Llama,不会丢失上下文。
  • Ollama 集成:为了最大程度的隐私,使用 Ollama 在本地运行一切——数据零外泄。
  • 团队空间:为不同项目或团队创建独立的知识库。

功能SurfSenseNotebookLMPerplexityGlean
自托管
开源是 (Apache 2.0)
自定义 LLM 支持100+ via LiteLLM仅 Gemini有限有限
外部集成20+仅网络企业级
个人文件上传50+ 格式PDF, Docs有限
播客生成
团队协作
定价免费(自托管)免费$20/月 Pro企业级

SurfSense 填补了 AI 研究领域的独特空白:企业级能力 + 个人控制权

如果您对以下问题感到困扰:

  • NotebookLM 缺乏外部连接
  • Perplexity 无法访问您的私有数据
  • Glean 仅面向企业且价格昂贵

…SurfSense 可能正是您需要的。它正在积极开发中,欢迎贡献,并且在 Discord 上有一个不断壮大的社区。

仓库地址MODSetter/SurfSense


  1. “刚发现 SurfSense——就像在您自己的服务器上运行 NotebookLM + Perplexity + Glean。开源,连接一切,真正尊重您的隐私。研究工作的游戏规则改变者。”

  2. “需要 AI 研究但不想把数据放在云端?SurfSense 可以使用 Ollama 在本地运行,连接 20+ 数据源,还能从您的发现生成播客。一条 Docker 命令即可试用。”

  3. “个人 AI 研究的未来已经到来:跨文件语义搜索、实时网络查询、Slack/Notion 集成,以及带引用的答案——全部自托管。快来看看 SurfSense。”


想看详细的设置指南或集成教程?欢迎在评论区告诉我!

参考来源:

微信公众号文章导出神器:批量下载、保留排版、导出阅读量的终极工具

如果你曾经尝试过保存微信公众号文章用于离线阅读、研究或备份,你一定深有体会:

  • 只能一篇一篇手动保存
  • 复制内容时排版全乱
  • 文章被删除后图片也没了
  • 无法导出阅读量和评论
  • 平台限制批量操作

听起来很熟悉吧? 对于研究人员、内容创作者以及任何想要保存优质公众号内容的人来说,这一直是个令人头疼的问题。

现在,wechat-article-exporter 来了——一个开源解决方案,让批量下载微信文章不仅成为可能,而且优雅高效。

微信公众号文章导出工具


wechat-article-exporter 是一款在线微信公众号文章批量下载工具,支持导出阅读量与评论数据,无需搭建任何环境,可通过 在线网站 直接使用。

同时也支持 Docker 私有化部署和 Cloudflare 部署,满足需要私有化基础设施的用户需求。

核心亮点: HTML 格式可 100% 还原文章排版与样式——这是其他工具无法达到的保真度。


格式最适合
HTML完美存档,100% 原样式,打包图片
Markdown技术博客、知识库、文档
JSON数据分析、程序化处理
Excel表格分析、内容清单
TXT纯文本备份、搜索索引
DOCXWord 编辑、正式报告
  • 关键字搜索 公众号
  • 作者过滤 查找特定作者
  • 标题搜索 定向内容
  • 发布时间过滤 按时间存档
  • 原创标识 识别原创内容
  • 合集支持 组织系列内容

除了文章内容,还可以导出丰富的元数据:

  • 阅读量
  • 转发量
  • 评论与回复
  • 原作者归属

注意:导出互动指标需要抓包获取 credentials 信息。详见 操作文档

  • 在线使用: 无需安装,访问 down.mptext.top
  • Docker 部署: 私有化自托管
  • Cloudflare 部署: 边缘计算选项
  • 开放 API: 构建自己的集成

该工具利用了一个巧妙的发现:微信公众号后台编辑器内置了文章搜索功能

当你在公众号后台写文章时,可以搜索并引用其他公众号的文章。wechat-article-exporter 正是利用了这个搜索 API——它是官方功能,只是被重新用于存档。

工作流程:

  1. 扫码使用你的微信公众号进行认证
  2. 工具使用你账号的编辑器搜索功能
  3. 抓取文章并转换为你选择的格式
  4. 批量下载并组织

  • 备份自己的内容 防止平台变动
  • 研究竞品内容 跨账号分析
  • 建立内容库 获取灵感
  • 收集数据 用于社交媒体研究
  • 保存一手资料 用于引用
  • 分析内容趋势 追踪时间变化
  • 导出互动指标 用于报告
  • 追踪竞品发布模式
  • 建立内容数据库 用于分析
  • 保存喜欢的文章 防止消失
  • 建立离线阅读合集
  • 迁移内容 到个人知识库

  1. 访问 down.mptext.top
  2. 用微信扫码(关联任意公众号即可)
  3. 搜索你想存档的公众号
  4. 选择文章并选择导出格式
  5. 下载存档
Terminal window
docker pull your-registry/wechat-article-exporter
docker run -p 3000:3000 wechat-article-exporter

参考 Cloudflare 部署指南 进行边缘部署。


项目明确声明:

“本程序承诺,不会利用您扫码登录的公众号进行任何形式的私有爬虫,也就是说不存在把你的账号作为公共账号为别人爬取文章的行为,也不存在类似账号池的东西。”

您的公众号只会服务于您自己的抓取文章的目的。

通过本工具下载的内容,版权归文章原作者所有。请合理使用:

  • 用于个人研究和备份存档
  • 引用时注明原作者
  • 未经许可不要转载发布

功能wechat-article-exporter手动保存截图工具
批量下载支持不支持不支持
原始排版100% HTML 保真丢失仅图片
阅读量支持不支持不支持
评论导出支持不支持不支持
多格式6 种格式PNG/PDF
自托管支持不适用视情况
费用免费(开源)免费视情况


对于任何经常与微信公众号内容打交道的人——无论是研究、存档还是内容分析——wechat-article-exporter 都是一个不可或缺的工具。

它用巧妙的技术方案(利用编辑器搜索 API)解决了真实问题(批量内容存档),并提供了全面的输出(6 种格式加完整元数据)。

开源、可自托管、尊重用户隐私,使其成为敏感内容存档需求的可信选择。

如果微信内容是你工作或研究的一部分,这个工具值得收藏。


相关资源:

Boris Cherny:Claude Code 创建者从 Meta 到 Anthropic 的职业成长之路

每一个革命性产品的背后,都有一个关于个人成长、战略思考和持续求知的故事。Boris Cherny,Anthropic 的 Claude Code 创建者,就是这个道理的最佳诠释。他的职业历程——从创业到风险投资,在 Meta(Facebook/Instagram)工作十年,再到领导开发最具影响力的 AI 开发工具之一——展示了每个工程师都可以应用的核心原则。

本文提炼了 Boris 的职业洞见,揭示他如何从一名中级工程师成长为 Meta 的首席工程师,最终创造出 Claude Code——一个如今能够自己编写 80-90% 代码的工具。

Boris Cherny Career Growth


Boris 在 18 岁时创立了他的第一家创业公司,曾在对冲基金工作,值得注意的是他没有计算机科学学位——他学的是经济学,后来辍学去追求创业。他的轨迹证明,编程是一项在工作中学习的实用技能,而非在课堂上习得。

Meta 职业里程碑(2012-2022):

  • IC4(中级):以”低于应有水平”入职,负责 Messenger-Groups 集成项目
  • IC5-IC6:领导 Groups 网页端迁移;创建了 Undux 状态管理库
  • IC7(高级主任工程师):推动 Public Groups 功能,涉及复杂的数据模型迁移
  • IC8(首席工程师):为数百名工程师规划工作范围;领导 Instagram 从 Python 迁移到 Hack 语言

在快速演进的 AI 领域,不要基于当前模型的能力来构建产品——要为未来的模型设计。

“不要为今天的模型构建产品,而要为六个月后的模型构建。” — Ben Mann,Boris 在 Anthropic 的上级

这种前瞻性思维解释了为什么 Claude Code 最初感觉不太理想,但在 Claude 4 系列发布后变得具有变革性。早期产品可能体验一般,但当新模型发布时,你就能实现质的飞跃。

最成功的产品不是发明新行为——而是满足已存在但被隐藏的需求。

Boris 在 Facebook 观察到,用户有 40% 的时间在”滥用” Groups 进行商业交易。这一观察催生了 Facebook Marketplace。同样,Dating 功能也是从观察人们已经如何使用平台建立联系中诞生的。

教训:观察用户正在用你现有功能拼凑出什么——那才是产品市场契合点的藏身之处。

3. 副业项目是你最大的职业杠杆

Section titled “3. 副业项目是你最大的职业杠杆”

通过解决重复出现的痛点并将解决方案推广为公司级工具,Boris 快速积累了跨团队的影响力。

他的”20%时间”项目包括:

  • Undux:一个 React 状态管理库
  • TypeScript 书籍与聚会:在开发者社区中的影响力建设
  • Lint 规则自动化:将重复的代码审查评论转化为自动化检查
  • 大数据集测试框架:惠及数千名工程师的基础设施

“更好的工程是工程师拓展人脉和获得影响力的最简单方式。“

高影响力的工程师不只是写代码——他们发展产品感觉、设计能力和用户研究技能。

在 Meta 和 Anthropic,都没有正式的职称。无论是工程师、产品经理还是设计师,每个人都是”技术成员(Member of Technical Staff)“。这种文化迫使人们通过执行力而非头衔来不断证明自己的价值。

“仅仅因为你是产品工程师,不代表你不能做基础设施。“

在历史包袱沉重、流程惯性强大的复杂组织中,最可靠的决策框架就是回归本质:

  • 用户真正需要什么?
  • 这件事合理吗?

成功的领导者不会被组织惯性牵着走,而是持续追问这些根本问题。


Claude Code 始于 Anthropic 内部实验中的一次意外发现。Boris 的上级推动他超越自动补全的思维局限,鼓励他为未来的模型能力进行设计。

最初,Boris 只在大约 10% 的工作中使用 Claude Code。直到 2024 年 3 月 Sonnet/Opus 4 发布,这个产品才真正可用。

模型改进后,使用率跃升至 50%。如今,Claude Code 的 80-90% 代码都是由 Claude Code 自己编写的。出乎意料的是,使用者从工程师扩展到了数据科学家和销售团队——这是团队从未预料到的使用场景。


招聘哲学:寻找有”副本任务”的人

Section titled “招聘哲学:寻找有”副本任务”的人”

Boris 积极寻找那些在日常工作之外保持好奇心的工程师:

“在招聘工程师时,我确实会寻找这一点……有酷炫的周末项目,比如某个特别热衷于酿造康普茶的人。”

这体现了成长型思维和求知欲——这些特质将优秀工程师与卓越工程师区分开来。


关于冒充者综合症:

“没有人在任何层级真正知道自己在做什么。如果你没有这种感觉,说明你还不够努力。”

关于专注与广度:

“写代码让你脚踏实地。失去它,你会很快失去直觉——那是很危险的状态。”

关于团队协作:

“你永远不想直接告诉别人做什么。理解他们想要什么,然后呈现机会——这总是更有效。”

关于组织变革:

“直接做。有时你需要共识,有时你需要行动。领导者需要不断在两者之间平衡。“


  1. 停止追逐头衔——追求有趣的问题和影响力。晋升自然会随之而来。

  2. 投资副业项目——即使是帮助团队的小自动化,也会随时间复利成巨大的影响力。

  3. 成为通才——在工程技能之外学习产品、设计和用户研究。最有价值的工程师是那些能够身兼多职的人。

  4. 大量运用常识——当迷失在组织复杂性中时,问问”用户真正需要什么?”

  5. 为未来构建——无论是在 AI 还是任何快速发展的领域,为技术将要到达的地方设计,而不是今天的位置。


Boris Cherny 的职业生涯为工程师的成长提供了一堂大师课:从解决自己的问题开始,将解决方案扩展为帮助他人的工具,通过执行力而非头衔赢得信任,并始终为未来设计。

Claude Code 之所以存在,是因为 Boris 花了十年时间构建产品(很多失败了),学习什么是出色的开发者体验,并将自己定位在代码质量与 AI 能力的交汇点。

对于寻求快速职业成长的工程师,他的公式很清晰:保持好奇。做副业项目。系统性思考。为明天设计。


Continuous Claude:Claude Code 终极上下文管理系统

Continuous Claude:Claude Code 终极上下文管理系统

Section titled “Continuous Claude:Claude Code 终极上下文管理系统”

在使用 Claude Code 处理复杂项目时,你可能遇到过令人沮丧的”上下文退化”问题。经过几次压缩周期后,你实际上是在与摘要的摘要的摘要打交道。信号退化为噪音,Claude 开始产生幻觉上下文。

Continuous Claude 通过革命性的方法解决了这个根本问题:清除,而不是压缩

会话开始:完整上下文,高信号
↓ 工作,工作,工作
压缩 1:部分细节丢失
↓ 工作,工作,工作
压缩 2:上下文变得模糊
↓ 工作,工作,工作
压缩 3:现在使用压缩噪音工作
↓ Claude 开始产生幻觉上下文

传统方法试图优化压缩算法。Continuous Claude 采取了根本不同的路径:将状态保存到外部,完全清除上下文,以完整信号恢复

会话开始:新鲜上下文 + 加载分类账
↓ 专注工作
完成任务,保存到分类账
↓ /clear
新鲜上下文 + 加载分类账
↓ 以完整信号继续
  • 分类账是无损的 - 你控制保存什么
  • 新鲜上下文 = 完整信号 - 没有退化的摘要
  • 代理以干净状态生成 - 每个代理都有隔离的上下文窗口

会话内(分类账)

在运行 /clear 之前:

"更新分类账,我要清除了"

创建/更新 CONTINUITY_CLAUDE-<session>.md,包含:

  • 目标和约束
  • 已完成和待完成的内容
  • 关键决策
  • 工作文件

会话间(交接)

当天结束时:

"创建交接,今天完成了"

创建详细交接,包含:

  • 完整上下文
  • 带有 file:line 引用的最近更改
  • 学习和模式
  • 下一步

Continuous Claude 使用复杂的钩子系统来拦截 Claude Code 生命周期事件:

事件时机作用
SessionStart新会话、/clear、压缩将分类账 + 最新交接加载到上下文
PreCompact上下文压缩前创建自动交接,阻止手动压缩
UserPromptSubmit处理用户消息前显示技能建议、上下文警告
PostToolUseEdit/Write/Bash 后跟踪修改的文件以自动摘要
SubagentStop代理完成记录代理完成
SessionEnd会话关闭清理临时文件

工具通过脚本执行,而不是加载到上下文中。这节省了大量 token:

Terminal window
# 示例:运行脚本
uv run python -m runtime.harness scripts/qlty_check.py --fix

对于复杂的实现,implement_plan 编排器会生成任务代理:

implement_plan(编排器)
├── task-agent(任务 1)→ handoff-01.md
├── task-agent(任务 2)→ handoff-02.md
└── task-agent(任务 3)→ handoff-03.md

每个任务代理:

  1. 读取前一个交接
  2. 用 TDD 完成工作
  3. 为下一个代理创建交接
  4. 向编排器返回摘要
Terminal window
# 克隆
git clone https://github.com/parcadei/Continuous-Claude.git
cd Continuous-Claude
# 安装 Python 依赖
uv sync
# 配置(可选 - 添加额外功能的 API 密钥)
cp .env.example .env
# 启动
claude
Terminal window
# 克隆并同步后
./install-global.sh
Terminal window
cd your-project
~/.claude/scripts/init-project.sh

Continuous Claude 响应自然语言。说出特定短语,Claude 会激活正确的技能或生成代理。

说这个发生什么
”保存状态”、“更新分类账”、“清除前”更新连续性分类账
”今天完成了”、“收工”、“创建交接”创建详细交接文档
”恢复工作”、“从交接继续”加载交接,继续
说这个发生什么
”创建计划”、“设计”、“架构”生成 plan-agent
”验证计划”、“实现前”生成 validate-agent
”实现计划”、“执行计划”生成 implement_plan
说这个发生什么
”实现”、“添加功能”、“修复 bug”TDD 工作流 激活
”lint”、“代码质量”、“自动修复”运行 qlty-check
”提交”、“推送”、“保存更改”运行 commit 技能

彩色状态栏显示上下文使用情况:

45.2K 23% | main U:3 | ✓ Fixed auth → Add tests

颜色编码:

  • 🟢 绿色(< 60%):正常
  • 🟡 黄色(60-79%):警告 - 考虑尽快交接
  • 🔴 红色(≥ 80%):紧急 - 立即创建交接

技能 在当前上下文中运行 - 快速、专注、最小 token 开销。

代理 以新鲜上下文生成 - 用于在压缩上下文中会退化的复杂任务。

  • 棕地探索 → rp-explorer
  • 多步骤研究 → research-agent
  • 复杂调试 → debug-agent
  • 带交接的实现 → implement_plan

跟踪每个会话以从过去的工作中学习:

  1. 会话追踪 - 记录每个回合、工具调用和 LLM 响应
  2. 自动学习 - 在会话结束时提取”有效/失败/模式”
  3. 工件索引集成 - 交接链接到追踪 ID

将会话学习转化为永久规则:

"复合我的学习"
→ 分析 .claude/cache/learnings/*.md
→ 识别重复模式
→ 在 .claude/rules/ 中创建新规则
.claude/
├── skills/ # 技能定义 (SKILL.md)
├── hooks/ # 会话生命周期 (TypeScript)
├── agents/ # 代理配置
├── rules/ # 行为规则
└── settings.json # 钩子注册
scripts/ # MCP 工作流脚本
thoughts/ # 研究、计划、交接

对比:传统方法 vs Continuous Claude

Section titled “对比:传统方法 vs Continuous Claude”
方面传统方法Continuous Claude
上下文退化累积损失零损失
会话连续性手动笔记自动分类账
代理上下文继承退化的新鲜隔离的
学习循环复合学习
Token 效率工具加载在上下文中脚本外部执行
  1. /clear 前更新分类账 - 始终先保存状态
  2. 在停止点创建交接 - 不要等到上下文紧急
  3. 对复杂任务使用代理 - 它们获得干净的上下文
  4. 利用复合学习 - 将模式转化为规则
  5. 关注状态行 - 它显示何时创建交接

Continuous Claude 代表了我们如何处理 AI 编码助手上下文管理的范式转变。通过拥抱”清除,而不是压缩”并通过分类账和交接构建强大的状态保存,它实现了:

  • 跨会话的无损上下文保存
  • 无上下文污染的 Token 高效 MCP 执行
  • 具有隔离上下文窗口的智能代理编排
  • 随时间改进的持续学习

对于使用 Claude Code 处理复杂、长期运行项目的团队,Continuous Claude 是开发工具包中不可或缺的补充。

用 Google Antigravity 快速修复 App Store 审核问题:真实案例分享

Google Antigravity - 修复 App Store 审核问题

用 Google Antigravity 快速修复 App Store 审核问题:真实案例分享

Section titled “用 Google Antigravity 快速修复 App Store 审核问题:真实案例分享”

“部署可以自主规划、执行和验证复杂任务的 AI 代理,横跨编辑器、终端和浏览器。” — Google Antigravity,一款革新开发方式的 Agent 优先 IDE。

App Store 审核被拒是每个 iOS 开发者的噩梦。当你收到 Apple 那封可怕的”您的提交存在问题”邮件时,时间就开始倒计时了。但如果有一个 AI 驱动的开发平台,能帮你在几分钟内而不是几小时内识别、理解并修复这些问题呢?

这就是 Google Antigravity —— Google 革命性的 Agent 优先 IDE,正在改变全球开发者解决问题的方式。

Google Antigravity 是一款 AI 驱动的集成开发环境(IDE),于 2025 年 11 月 18 日与 Gemini 3 一同发布。与传统的”IDE + AI 助手”不同,Antigravity 从底层就采用了 Agent 优先架构

功能说明
编辑器视图熟悉的 IDE 体验,支持 AI 驱动的 Tab 补全和内联命令
管理器视图用于编排多个并行工作代理的控制中心
多工具执行代理可自主访问编辑器、终端和浏览器
工件生成通过任务列表、计划和截图进行可视化验证
多模型支持Gemini 3 Pro、Claude Sonnet 4.5、GPT-OSS-120B

该平台目前处于公开预览阶段,可在 macOS、Windows 和 Linux 上免费使用,下载地址:antigravity.google/download

让我通过一个真实案例,展示如何使用 Google Antigravity 修复 MoneyMind(省钱思维)iOS App 的审核被拒问题。

2025 年 12 月 23 日,我收到了 Apple 那封令人头疼的邮件:

App Store 审核邮件

邮件表明我的 MoneyMind 提交(iOS 版本 1.0)存在问题。被拒原因包括:

  • 2.1.0 性能:App 完整性 - 应用功能问题
  • 4.0.0 设计:前言 - UI/UX 设计问题

第二步:在 App Store Connect 查看详情

Section titled “第二步:在 App Store Connect 查看详情”

登录 App Store Connect 查看具体问题:

App Store Connect - 已提交项目

审核团队标记了不符合 Apple 人机界面指南的特定 UI 元素。被拒通知附带的截图显示:

个人资料页面 UI 问题 - 之前

个人资料页面 UI 问题 - 详情

具体问题包括:

  • 右上角编辑图标无功能
  • 文字覆盖遮挡内容
  • 与其他页面样式不一致

第三步:使用 Google Antigravity 修复问题

Section titled “第三步:使用 Google Antigravity 修复问题”

这正是 Google Antigravity 大显身手的时候。我不需要手动在代码中大海捞针,而是创建了一个 Issue Markdown 文件,让 Antigravity 的代理来处理繁重的工作。

我创建了一个结构化的 Issue 文件描述问题:

Antigravity 中的问题文档

问题文档包括:

  • 问题文件引用(profile_page.dart
  • 需要修复的具体 UI 元素
  • 被拒截图链接
  • 修复的验收标准

当我要求 Antigravity 修复问题时,它:

  1. 分析代码库 - 识别个人资料页面组件和相关文件
  2. 理解上下文 - 查看截图以理解视觉问题
  3. 规划修复 - 生成包含具体更改的任务列表
  4. 实施更改 - 修改 Flutter 代码以:
    • 临时隐藏无功能的编辑图标
    • 移除文字覆盖问题
    • 确保与 savings_page.dart 样式一致
  5. 验证修复 - 运行 UI 集成测试

Antigravity 中的修复和总结

AI 总结了所有更改并将其附加到问题文档中以便追踪。

修复完成后,我通过 Xcode 归档并上传了新版本(1.0.2)到 Apple:

通过 Xcode 上传到 Apple

应用现在处于”等待审核”状态,修复已经应用:

等待审核

为什么 Google Antigravity 在这类工作流中表现出色

Section titled “为什么 Google Antigravity 在这类工作流中表现出色”

传统 AI 助手需要不断的人工引导。Antigravity 的代理可以自主:

  • 导航你的代码库
  • 运行终端命令
  • 打开浏览器验证更改
  • 生成验证工件(截图、录屏)

Antigravity 不显示原始工具调用,而是生成 工件 —— 包括以下有形交付物:

  • 任务列表
  • 实施计划
  • 截图
  • 浏览器录屏

这让你无需解析技术日志就能轻松验证工作。

你不会被锁定在某一个 AI 模型上。Antigravity 支持:

  • Gemini 3 Pro - Google 旗舰模型,配额充足
  • Claude Sonnet 4.5 - Anthropic 的平衡模型
  • GPT-OSS-120B - 开源替代方案

根据任务选择最合适的模型。

当 Antigravity 处理你的 App Store 修复时,你可以专注于其他任务。长时间运行的操作如:

  • Bug 修复
  • 问题复现
  • UI 迭代

…都在后台进行,无需持续监督。

使用带有清晰章节的 Markdown 文件:

# 问题:根据 App Store 审核修复个人资料页面 UI
## 描述
[描述被拒原因]
## 内容与方法
[列出需要更改的具体文件]
## 验收标准
- [ ] 运行 UI 集成测试验证修复
- [ ] 总结更改并附加到此问题

包含 App Store 被拒通知中的截图。Antigravity 的视觉能力可以分析图像以理解确切问题。

指向具体文件:

修改 `vs_compounding_life_flutter/lib/presentation/pages/profile/profile_page.dart`

明确”完成”的标准:

  • 测试通过
  • 符合设计系统
  • 无新警告

让 Antigravity 将其总结附加到你的问题文档,形成完整的审计跟踪。

方法修复时间手动工作量验证方式
手动调试2-4 小时手动测试
AI 助手(Copilot 等)1-2 小时中等需要手动验证
Google Antigravity15-30 分钟自动化工件

关键区别在于 Antigravity 能够通过浏览器自动化和工件生成 自主验证 其工作。

A:是的,目前处于公开预览阶段,对个人用户免费。下载地址:antigravity.google/download

A:完全支持。Antigravity 支持任何语言和框架。它基于 VS Code 构建,因此 Flutter 工具链可以无缝集成。

Q:它能直接与 App Store Connect 交互吗?

Section titled “Q:它能直接与 App Store Connect 交互吗?”

A:虽然 Antigravity 可以使用其浏览器工具导航网页界面,但出于安全考虑,建议手动处理 Apple 认证。AI 在代码级修复方面表现出色。

A:Antigravity 为每次更改生成工件。在提交之前查看任务列表和截图。你对推送的内容拥有完全控制权。

Google Antigravity 代表了开发者处理紧急问题(如 App Store 审核被拒)方式的范式转变。通过将 Agent 优先架构与多模型 AI 支持和基于工件的验证相结合,它将压力重重的多小时调试过程转变为流畅的 30 分钟工作流。

MoneyMind 案例展示了这种方法的实际威力:

  1. 收到被拒通知 → 记录问题
  2. 输入到 Antigravity → 让代理分析和修复
  3. 审查工件 → 可视化验证更改
  4. 上传修复版本 → 回到”等待审核”

如果你是一位厌倦了 App Store 审核被拒循环的 iOS 开发者,不妨试试 Google Antigravity。你未来的自己(和你的用户)会感谢你的。


最后更新:2025 年 12 月 25 日

重磅消息:Google 终于允许更改 @gmail.com 邮箱地址了

Google Gmail 邮箱地址更改功能

多年来,Gmail 用户一直被困在当初创建的邮箱地址上——即使那是年少时随手取的尴尬名字。现在,这一切终于要改变了。Google 正在逐步推出将 @gmail.com 地址更改为新 @gmail.com 地址的功能,这对于每一个曾经后悔过邮箱用户名选择的人来说,都是一个重大利好消息。

根据 Google 官方帮助页面,你现在可以:

  • 更改你的 Gmail 地址:从一个 @gmail.com 更改为另一个 @gmail.com
  • 保留所有数据:照片、消息、邮件,一切都完好无损
  • 同时使用两个地址:你的旧地址变成别名,仍然可以接收邮件
  • 任意地址登录:新旧地址都可以用来登录
功能详情
旧地址处理方式变为备用/别名地址
邮件接收两个地址都接收到同一个收件箱
数据迁移零数据丢失,一切都会保留
登录选项可以使用新旧任一地址登录
所有权旧地址永久归你所有

在急着更改地址之前,请先了解这些限制:

  1. 最多 3 个新地址:你最多可以创建 3 个新 Gmail 地址,让你的账号总共拥有最多 4 个地址
  2. 12 个月冷却期:更改后,12 个月内无法再创建新的 Gmail 地址
  3. 无法删除新地址:更改后的 12 个月内,你无法删除新地址
  4. 旧地址保留:你的旧地址无法完全移除——它会保留为备用地址
  5. 他人无法使用:你的旧地址永久为你保留

第一步:检查你是否有访问权限

Section titled “第一步:检查你是否有访问权限”

该功能正在逐步推出,所以并非每个人都能使用。检查方法:

  1. 前往 myaccount.google.com/google-account-email
  2. 如有提示,请登录
  3. 点击左侧导航栏中的个人信息
  4. 点击邮箱Google 账号邮箱
  5. 查找**“更改 Google 账号邮箱”**选项
    • 如果看到了:恭喜你有访问权限!继续第二步
    • 如果没看到:该功能尚未向你开放

在更改之前,请考虑以下情况:

  • Chromebook 用户:可能需要额外步骤
  • 第三方网站的”使用 Google 账号登录”:某些网站可能需要重新认证
  • Chrome 远程桌面:远程连接可能需要重新建立
  • 应用设置:某些应用设置可能会重置(类似于在新设备上登录)

温馨提示:在进行更改之前,请备份你的重要数据!

  1. 输入你想要的新用户名
  2. 用户名必须是唯一的(未被其他 Google 账号使用)
  3. 点击更改邮箱是的,更改
  4. 按照屏幕上的说明操作

完成后,你的新邮箱将成为你的主要 Google 账号邮箱,旧邮箱则变为备用地址。

可以! 你的原始地址会变成备用地址。你可以随时切换回去:

  1. 前往 myaccount.google.com
  2. 选择邮箱 → Google 账号邮箱
  3. 找到你的旧地址,选择”将此地址设为您的 Google 账号邮箱”

不会。 所有数据都会保留,包括发送到旧地址的邮件。两个地址都会发送到同一个收件箱。

我可以在 Gmail 地址中添加或删除点号吗?

Section titled “我可以在 Gmail 地址中添加或删除点号吗?”

Gmail 中的点号本来就会被忽略(john.doe@gmail.com = johndoe@gmail.com)。但是,你无法更改 Google 账号邮箱名称中的标点符号——如果你的邮箱包含点号,它们将继续显示。

之前创建的活动(如日历事件)仍会显示你的旧邮箱地址。更改不会追溯到历史数据。

其他人可以认领我的旧地址吗?

Section titled “其他人可以认领我的旧地址吗?”

不能。 你的旧地址永久为你保留。即使你删除了 Google 账号,其他人也无法使用该地址。

Google 表示该功能正在”逐步面向所有用户推出”。根据 9to5Google 的报道,该功能文档最初出现在印地语版本中,正在扩展到其他地区。如果你还没有访问权限,请定期检查。

  1. 记录第三方登录:记下哪些网站使用”使用 Google 账号登录”
  2. 导出你的数据:使用 Google Takeout 进行备份
  3. 通知联系人:让重要联系人知道你的地址更改
  4. 更新恢复选项:确保你的手机号码和恢复邮箱是最新的
  1. 测试两个地址:向新旧地址发送测试邮件
  2. 重新认证应用:某些应用可能需要你重新登录
  3. 更新专业资料:LinkedIn、GitHub 等
  4. 监控问题:注意任何登录或服务问题
  • 拥有尴尬或不专业邮箱地址的人
  • 改过名字的用户(结婚等)
  • 想要更简洁、更易记地址的人
  • 你当前的地址完全满足你的需求
  • 你有大量的”使用 Google 账号登录”集成
  • 你大量使用 Chromebook 或 Chrome 远程桌面

这是一个改变游戏规则的功能,Gmail 用户已经期待了 20 多年。虽然有一些限制(只能更改 3 次,12 个月冷却期),但能够最终更新 2005 年那个让人尴尬的邮箱地址,这是一个受欢迎的新功能。

关键要点:该功能正在逐步推出。定期检查你的 Google 账号设置,当你看到该选项时,请仔细考虑更改是否适合你的情况。


MCP Defender:Docker 收购的 AI 智能体安全防护神器

Docker 收购 MCP Defender:AI 智能体一直缺失的安全防护层

随着 AI 智能体在开发工作流中变得越来越自主,安全形势已经发生了根本性的变化。MCP Defender 应运而生——这款桌面应用最近被 Docker 收购,用于保护 Cursor、Claude Desktop、VS Code 和 Windsurf 等 AI 应用免受各种攻击。

MCP Defender 封面


MCP Defender 是一款桌面应用程序,作为模型上下文协议(MCP)的安全代理。它的工作原理如下:

  • 🛡️ 自动保护:所有 AI 应用的 MCP 工具调用请求和响应都会自动通过 MCP Defender 代理
  • 🔎 签名检测:拦截的数据会与安全签名库进行比对
  • 🔐 用户可控拦截:当检测到有害内容时,MCP Defender 会发出警告并询问是否允许或阻止该工具调用

支持的 AI 应用:

  • Cursor
  • Claude Desktop
  • Visual Studio Code
  • Windsurf

2025 年 9 月 5 日,Docker 宣布收购 MCP Defender,这标志着其在 AI 智能体安全领域的战略布局。理由很明确:

“AI 智能体正变得越来越智能——也越来越自主。这意味着新的风险、新的攻击面,以及对能够跟上开发团队速度的运行时安全的需求。“

传统安全工具并非为 AI 智能体而设计。当 AI 智能体具备以下能力时:

  • 执行代码
  • 访问文件系统
  • 发起 API 调用
  • 与外部服务交互

…攻击面就会急剧扩大。MCP Defender 通过以下能力填补了这一关键缺口:

能力描述
运行时监控持续观察 AI 智能体行为
策略执行可自定义的 AI 操作安全规则
实时威胁检测在恶意模式发生时即时识别
多客户端保护同时保护多个 AI 应用

直接下载最新版本:

Terminal window
# 克隆仓库
git clone https://github.com/MCP-Defender/MCP-Defender.git
cd MCP-Defender
# 安装依赖
npm install
# 启动应用
npm start

运行后,MCP Defender 会自动拦截支持的 AI 应用的 MCP 流量——无需额外配置。


MCP Defender 可防御多种攻击向量:

嵌入数据中的恶意指令,会诱骗 AI 智能体执行有害命令。

防止通过 AI 工具调用进行未经授权的数据提取。

阻止超出预定范围的工具或命令执行尝试。

检测被入侵的 MCP 服务器或恶意工具定义。


此次收购符合 Docker 更广泛的”默认安全的 AI 基础设施”愿景:

  • Docker Scout:容器镜像漏洞扫描
  • Docker Hardened Images:预加固的基础镜像
  • Docker MCP Gateway:安全的 MCP 服务器托管
  • MCP Defender:运行时 AI 智能体保护

这些工具共同旨在保护整个 AI 软件供应链,同时减轻开发团队的安全负担。


MCP Defender 已在真实攻击场景中证明了其价值:

攻击类型MCP Defender 响应方式
WhatsApp 数据外泄阻止对消息数据的未授权访问
文件系统篡改当 AI 尝试访问敏感目录时发出警告
通过工具调用进行代码注入拦截并标记恶意载荷

当检测到威胁时,应用会显示清晰的警告对话框,让您完全控制是允许还是阻止该操作。


AI 智能体正在改变我们构建软件的方式,但能力越大,责任越大——攻击面也越大。MCP Defender 代表了 AI 安全的关键进化:

  • 对于个人开发者:使用 AI 编程助手时更加安心
  • 对于企业团队:符合合规要求的 AI 智能体治理
  • 对于整个生态系统:安全的智能体 AI 基础设施的基石

有了 Docker 的支持,MCP Defender 有望成为 AI 智能体安全的标准。如果你正在使用 Cursor、Claude Desktop、VS Code 或 Windsurf,安装 MCP Defender 现在是必做之事。


快速验证胜过文档管理:让代码库为 AI 智能体做好准备

传统软件开发依赖人类开发者手动处理模糊性和隐性知识。但 AI 智能体从根本上是不同的——它们对噪声高度敏感,需要快速、明确、可预测的反馈循环。如果你的代码库缺乏严格的验证机制,智能体在生产环境中不可避免地会失效。

这一洞察从根本上重塑了我们应该如何为 AI 辅助开发时代准备代码库。

Simon Willison,开发者社区中备受尊敬的声音,提出了一个反直觉的观察:

“我实际上不认为文档太重要:LLM 读代码比你快得多,能弄清楚如何使用它。”

这挑战了传统观念——认为全面的文档是可维护代码库的关键。对于 AI 智能体,计算方式不同:

方面文档自动化测试
反馈速度无(被动参考)即时(主动验证)
模糊性高(自然语言)低(通过/失败)
隐性知识常被遗漏编码在断言中
智能体效用可读但无法验证可执行并学习

与人类开发者可以利用上下文和经验过滤模糊指令不同,AI 智能体在以下方面会遇到困难:

  • 代码注释中隐含的假设
  • 与当前行为冲突的过时文档
  • 任何地方都没提到的边缘情况

通过测试进行快速验证提供了智能体可以信任的基准真相

Spotify 工程团队在其后台编码智能体系统中广泛研究了这一点。他们的关键发现:

“验证循环允许智能体及其底层 LLM 在提交更改之前逐步确认它走在正确的轨道上。”

他们的验证架构包括:

  • 确定性验证器:根据代码库内容自动激活(例如,pom.xml 文件的 Maven 验证器)
  • LLM 作为裁判:根据原始提示评估提议的更改,否决约 25% 的智能体会话
  • 纠错能力:约 50% 被否决的尝试被智能体成功纠正

Augment Code 的研究将”氛围编程”(Vibe Coding)定义为基于表面正确性接受 AI 生成的代码,而不进行系统性验证。这种方法:

  • 45% 的情况下引入安全漏洞(根据 Veracode)
  • 创建完美处理正常路径但忽略错误条件的代码
  • 导致相同的反模式在服务间传播

基于行业研究,这里是一个让代码库为智能体做好准备的全面框架:

先写测试,然后让智能体生成实现:

Terminal window
# 示例工作流
1. 开发者编写全面的测试套件
2. 智能体生成代码以通过测试
3. 智能体迭代运行测试直到全部通过
4. 人类审查架构一致性

Simon Willison 的方法:“我的一个项目有 1500 个测试,Claude Code 非常擅长选择性地只执行与其更改相关的测试。“

这是一个低成本、高影响的改进:

“如果手动或自动测试失败,你能返回给模型的信息越多越好。”

不要这样:

AssertionError: expected 5, got 3

而是提供:

AssertionError: expected 5, got 3
Context: 为 role='admin' 计算用户权限
Function: calculate_permissions() at line 42
Input state: user_id=123, roles=['admin', 'viewer']
Related: 检查 config.py 中的 PERMISSION_MATRIX

为你的代码库配置:

  • 代码检查器 (ESLint, Ruff, Clippy)
  • 类型检查器 (TypeScript, mypy, Pyright)
  • 自动格式化工具 (Prettier, Black, rustfmt)

“给编码智能体提供有用的工具运行,它们就会使用。“

实施自动化验证阶段:

  • 静态分析 (SAST)
  • 动态测试 (DAST)
  • 策略执行
  • 合规性验证

跟踪智能体性能指标:

  • 代码质量遥测
  • 编译成功率
  • 随时间变化的测试通过率
  • 生产行为监控

6. 人工代码审查(仍然必不可少)

Section titled “6. 人工代码审查(仍然必不可少)”

AI 经常生成具有微妙集成缺陷的模式。人类审查者能发现:

  • 架构不一致
  • 安全反模式
  • 上下文特定问题

最先进的方法:创建一个学习系统,而不仅仅是自动化流水线:

“每个 bug、测试失败和设计洞察都被记录并被未来的智能体重用,所以每个功能都让下一个更容易构建。“

“氛围编程”和”增强编码”之间的对比归结为两个因素:

因素氛围编程增强编码
反馈循环较长较短
规范级别高层次、模糊详细、精确

对于大型复杂代码库,增强编码是必不可少的:

“你不能简单地用氛围编程通过一个大型复杂的代码库。使用增强编码,AI 智能体处理小的、明确定义的任务,并有频繁的反馈循环。“

  1. 在将工作交给智能体之前先写测试
  2. 配置全面的代码检查和类型检查
  3. 在断言中提供详细的错误信息
  4. 设置本地开发服务器说明让智能体验证 UI 更改
  1. 实施 CI/CD 门控以捕获智能体生成的问题
  2. 创建 AGENTS.md(类似于 README.md)用于项目特定的 AI 指导
  3. 记录架构决策,这些从代码中不明显
  4. 跟踪智能体性能指标随时间变化
  1. 采用测试驱动智能体开发 (TDAD) 作为标准实践
  2. 投资可观测性用于智能体生成的代码
  3. 保持人工审查要求用于生产部署
  4. 构建复合学习系统随时间改进
  1. 测试 > 文档——对于 AI 智能体——它们提供可执行的、明确的反馈
  2. 快速反馈循环是必不可少的——智能体需要即时验证
  3. 丰富的错误信息是低成本、高影响的改进
  4. “氛围编程”在企业环境中是危险的——需要系统性验证
  5. 对人类有效的最佳实践仍然适用——智能体受益于维护良好的代码库

AI 辅助开发的未来不是关于取代人类判断——而是关于创建反馈丰富的环境,让智能体可以快速迭代,而人类可以专注于架构决策和创造性问题解决。

Google 68页提示词工程白皮书:10条最佳实践完全解读

Google 最近发布了一份由 Lee Boonstra 撰写的 68 页提示词工程白皮书,已被业界誉为”2025 年结构最清晰、最易读、示例最丰富的 LLM 提示词指南”。以下是从这份权威指南中提炼的 10 条最佳实践。


LLM 是预测引擎,而非推理引擎。你提供的每一个字,都在引导模型预测下一个 token。理解这一根本原理,是掌握提示词工程的关键。

技巧会过时,但原理永不过时。


Few-shot 比 zero-shot 效果好得多。 给 3-5 个例子,模型就能精准理解你的期望,胜过任何冗长的解释。

为什么有效: 示例让模型捕捉你想要的结构、语气和格式。与其解释什么是”专业”,不如直接展示一个专业的回复。

示例:

任务:生成产品描述
示例1:
产品:无线耳机
描述:体验水晶般清晰的音质,30小时续航。主动降噪让你专注于重要的事。
示例2:
产品:智能手表
描述:精准追踪健身目标。心率监测、GPS定位、7天续航,让你运动不停歇。
现在生成:
产品:蓝牙音箱

使用动词,避免晦涩表达。 一句清晰的话胜过三段模糊的描述。

LLM 不需要客套话或上下文铺垫,它们需要直接的指令。

推荐动词:

  • 分析(Analyze)
  • 创建(Create)
  • 生成(Generate)
  • 识别(Identify)
  • 总结(Summarize)
  • 比较(Compare)
  • 提取(Extract)

修改前: “我希望你能帮我写一些可能对理解机器学习有用的内容,如果不太麻烦的话。”

修改后: “用 3 句话向非技术人员总结机器学习。“


模糊指令 = 随机结果。 要 JSON 就说 JSON,要 500 字就说 500 字。

格式要求越具体,输出越可预测。

弱: “写一篇关于游戏主机的博客。”

强: “写一篇 3 段的游戏主机发展史博客。使用对话风格。每段 4-6 句。每段包含一个具体数据。”

进阶技巧: 请求 JSON 格式可获得结构化、可处理的响应,天然限制幻觉:

{
"summary": "...",
"key_points": ["...", "...", "..."],
"confidence": "high/medium/low"
}

告诉模型该做什么,而不是不该做什么。

否定表达对语言模型天生具有歧义性。“不要啰嗦”不如”限制在 100 字内”有效。

避免这样说改成这样说
”不要列出游戏名称""只讨论主机、公司、年份和销量"
"不要啰嗦""每段限制 3 句话"
"不要编造""不确定时回复’我无法核实此信息’”

心理学解释: 正向指令定义了明确的行动空间,而否定约束定义的是无限的排除区域,模型更难理解边界。


成本与 token 线性相关。 生成 1000 字的成本是 100 字的 10 倍。

当效率重要时,始终设置明确的长度约束。

常用技巧:

  • “限制输出在 80 字符内”
  • “用一条推文的长度解释”
  • “精确回复 3 个要点”
  • “最多 50 tokens”

额外收获: Token 限制也会强制简洁,往往提升输出质量。


把可变部分抽成变量。 一套精心设计的模板可以复用上百次。

你是一个 {role} 助手,帮助 {audience} 完成 {task}。
背景:{context}
要求:
- 输出格式:{format}
- 长度:{length}
- 语气:{tone}
输入:{user_input}

优势:

  • 多次查询保持一致性
  • 便于 A/B 测试
  • 支持程序化生成提示词
  • 版本控制友好

问句、陈述句、指令产生的结果各不相同,即使内容相同。

多种方式测试:

  • 问句: “锻炼有什么好处?”
  • 陈述: “锻炼有多种好处。请解释。”
  • 指令: “列出 5 个定期锻炼的好处,附带科学依据。”
  • 角色扮演: “作为健身教练,解释客户为什么应该锻炼。”

发现: 列表、段落、对话格式也会产生不同的稳定性,找到最适合你场景的方式。


别全是正面案例,也别把同类放一起。 打乱示例顺序,强迫模型学习模式而非记忆顺序。

弱(分组排列):

正面:"产品很棒!" -> 正面
正面:"太喜欢了!" -> 正面
正面:"Amazing!" -> 正面
负面:"太差了" -> 负面
负面:"糟糕" -> 负面

强(混合排列):

"产品很棒!" -> 正面
"太差了" -> 负面
"太喜欢了!" -> 正面
"还行吧" -> 中性
"糟糕" -> 负面
"Amazing!" -> 正面

原因: 当被迫区分相邻的不同类别示例时,模型能学到更有区分度的特征。


GPT-4 到 GPT-4.5,Gemini 1.0 到 2.0,提示词都要重新调优。

每代模型都有不同的优势、特性和最优配置。昨天有效的今天可能表现不佳。

最佳实践:

  • 每次模型更新后重新测试核心提示词
  • 持续监控输出质量指标
  • 维护提示词变更日志
  • 保留基准示例用于对比

现实: 持续优化提示词不是可选的维护工作,而是核心产品工作。


用表格存:模型、温度、提示词、输出。 三天后你绝对记不住哪个版本好用。

推荐追踪字段:

字段用途
模型使用的模型版本
温度随机性设置
提示词使用的确切提示词
输出收到的结果
质量1-5 评分
备注哪些有效/无效

对于 RAG 系统: 还要记录影响内容插入的因素——查询、分块设置、分块输出。


对于复杂推理任务,将温度设为 0,适用于需要严格逻辑推理的单一答案问题。

自洽性提示(Self-Consistency Prompting): 在高温度下多次发送相同的思维链提示,然后对最常见的答案”投票”。这使答案更稳健,减少幻觉。

退后一步提示(Step-Back Prompting): 不直接解决问题,先让模型思考通用原理或模式,再用该响应引导具体任务。


所有 10 条实践背后的逻辑都一样:

LLM 是预测引擎,不是推理引擎。 你提供的每个字都在引导 token 预测。具体性减少歧义。示例优于解释。正向指令优于否定约束。

技巧会过时,原理不会。



你最有效的提示词工程技巧是什么?最好的提示词往往来自系统性的实验和严谨的记录。

Banana-Slides:AI原生PPT生成器 - 用自然语言创建专业演示文稿

Banana-Slides:AI原生PPT生成器

Banana-Slides:AI原生PPT生成器 - 迈向真正的”Vibe PPT”

Section titled “Banana-Slides:AI原生PPT生成器 - 迈向真正的”Vibe PPT””

🍌 一句话创建专业演示文稿 - 欢迎来到AI原生PPT生成时代!

Banana-Slides 是一款创新的开源AI原生PPT生成应用,基于 nano banana pro 🍌 模型构建。它代表了演示文稿创建方式的范式转变——从繁琐的手动设计转向自然语言驱动的智能生成。无论您是需要快速制作专业演示文稿的非设计人员、需要将教学内容转换为视觉格式的教育工作者,还是需要快速创建提案的商务人士,Banana-Slides都能为您提供革命性的幻灯片创建方式。

功能描述
🎯 一句话创建从单个创意生成完整演示文稿
📝 大纲式生成结构化内容,让AI完成设计
🗣️ 自然语言编辑通过简单描述修改幻灯片
📄 智能内容解析上传PDF/DOCX/MD/TXT文件进行智能提取
🎨 自定义模板支持上传任意模板图片保持品牌一致性
📤 一键导出导出为16:9格式的PPTX或PDF

传统演示工具需要大量设计技能和时间投入。Banana-Slides通过以下方式改变这一现状:

  1. 消除设计门槛:无需设计专业知识——用自然语言描述您想要的效果
  2. 加速创建过程:将数小时的工作缩短为几分钟
  3. 保持设计一致性:AI确保整个演示文稿的设计连贯性
  4. 支持迭代优化:通过自然语言命令修改特定区域

一句话生成 只需描述您的演示主题,Banana-Slides即可生成完整的幻灯片:

"创建一个关于城市环境可持续能源解决方案的演示文稿"

大纲式创建 提供结构化大纲,AI将完成视觉设计和内容组织。

逐页描述 如需精确控制,可逐页描述每张幻灯片,让AI处理设计细节。

上传您现有的文档(PDF、DOCX、Markdown、TXT),Banana-Slides将:

  • 自动解析内容,使用智能提取技术
  • 识别关键要点,用于幻灯片重点突出
  • 提取图片和图表,丰富视觉呈现
  • 结构化信息,优化演示流程

无需在复杂菜单中摸索。简单描述您的修改需求:

  • “把标题放大并居中”
  • “给第3页添加蓝色渐变背景”
  • “把项目符号换成图标”
  • PPTX格式:与PowerPoint完全兼容,可进一步编辑
  • PDF格式:即可分享或打印
  • 16:9宽高比:针对现代显示器和投影仪优化
用户类型使用场景
📊 非设计人员无需设计技能快速制作专业演示文稿
🎨 设计专业人士获取布局灵感和快速原型
🎓 教育工作者将教学材料转换为引人入胜的视觉内容
📚 学生高效完成作业和项目演示
💼 商务人士快速创建提案和路演资料
  • React 18 + TypeScript,构建健壮的UI
  • Vite 5,超快速构建
  • Zustand,高效状态管理
  • Tailwind CSS,响应式样式
  • @dnd-kit,拖放功能
  • Lucide React,精美图标
  • Python 3.10+ + Flask 3.0
  • SQLite + Flask-SQLAlchemy,数据持久化
  • Google Gemini API,AI驱动生成
  • python-pptx,PPTX导出
  • Pillow,图像处理

最简单的入门方式:

Terminal window
# 克隆仓库
git clone https://github.com/Anionex/banana-slides.git
cd banana-slides
# 使用Docker Compose启动
docker-compose up -d

前置要求:

  • Python 3.10+
  • Node.js 16+
  • uv包管理器
  • Google Gemini API密钥

后端配置:

Terminal window
cd backend
uv venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
uv pip install -r requirements.txt
python app.py

前端配置:

Terminal window
cd frontend
npm install
npm run dev

创建 .env 文件并填入API凭证:

Terminal window
GEMINI_API_KEY=your_gemini_api_key_here

初始描述越清晰,AI输出效果越好。明确说明:

  • 目标受众
  • 核心信息
  • 期望的风格(专业、休闲、创意)

不要满足于第一次输出。使用自然语言命令优化:

  • “让这个更专业一些”
  • “简化视觉效果”
  • “添加更多数据可视化”

为保持品牌一致性,上传您公司的模板作为参考图片。Banana-Slides会保持您品牌的视觉识别。

有现成内容?上传它!Banana-Slides擅长将文字文档转换为引人入胜的演示文稿。

状态功能
✅ 已完成多路径创建、文件解析、元素编辑、PPTX导出
🚧 进行中元素分割、网页搜索集成、Agent模式
📋 计划中性能优化、在线播放、动画效果、多语言支持
功能Banana-Slides传统工具其他AI工具
自然语言创建✅ 完全支持❌ 无⚠️ 有限
自定义模板上传✅ 任意图片⚠️ 特定格式❌ 很少
文档解析✅ 多种格式❌ 手动输入⚠️ 部分格式
开源✅ 是❌ 否❌ 大多数否
自托管✅ 是❌ 否❌ 很少
  • GitHub仓库Anionex/banana-slides
  • Star数:6.1k+ ⭐
  • Fork数:690+
  • 活跃开发:是(239+次提交)

A:Banana-Slides基于 nano banana pro 🍌 模型构建,集成Google Gemini API进行内容生成。

Q:可以使用自己的品牌设计吗?

Section titled “Q:可以使用自己的品牌设计吗?”

A:当然可以!上传任意模板图片,Banana-Slides会保持您品牌的视觉一致性。

A:自托管选项确保您的数据保留在自己的基础设施上。除了AI API调用外,不会向外部服务发送任何数据。

Q:可以上传哪些格式进行内容解析?

Section titled “Q:可以上传哪些格式进行内容解析?”

A:支持PDF、DOCX、Markdown(.md)和纯文本(.txt)文件。

Q:生成的演示文稿可以在PowerPoint中编辑吗?

Section titled “Q:生成的演示文稿可以在PowerPoint中编辑吗?”

A:完全可以!导出为PPTX格式后,可在任何兼容应用程序中自由编辑。

Banana-Slides代表了演示文稿创建的未来——您的想法可以自然流畅地转化为专业幻灯片,无需传统设计工具的繁琐操作。其开源特性、强大的AI能力和灵活的部署选项,使其成为希望简化演示工作流程的个人和组织的绝佳选择。

准备好革新您的演示文稿工作流程了吗? 🍌


OpenSkills:AI 编程助手通用技能加载器

OpenSkills:AI 编程助手通用技能加载器

Section titled “OpenSkills:AI 编程助手通用技能加载器”

AI 编程助手已经彻底改变了软件开发方式,但每个助手都在自己的生态系统中运行,拥有独特的能力。OpenSkills 打破了这一壁垒,将 Anthropic 强大的技能系统带给所有 AI 编程助手。

OpenSkills 是一个通用技能加载器,它为任何 AI 编程助手实现了 Anthropic 的 Agent Skills 规范。它将 Claude Code 的技能系统带给 Cursor、Windsurf、Aider 和其他助手,实现 100% 兼容

Terminal window
npm i -g openskills
openskills install anthropics/skills
openskills sync

每个 AI 编程助手都有自己处理专业能力的方式:

  • Claude Code 拥有内置技能系统和市场
  • Cursor 使用自定义规则和指令
  • Windsurf 有自己的知识管理方式
  • Aider 依赖约定和提示词

这种碎片化意味着技能和工作流无法在助手之间迁移。

OpenSkills 提供了一种跨所有助手通用的技能格式:

  • 相同的提示词格式 - <available_skills> XML 结构
  • 相同的市场 - 访问 Anthropic 官方技能
  • 相同的文件夹结构 - 默认使用 .claude/skills/
  • 相同的 SKILL.md 格式 - YAML 前置信息 + markdown 指令
  • 渐进式加载 - 按需加载技能,而非预先加载

OpenSkills 通过使用 CLI 命令而非专有工具调用,适用于任何 AI 编程助手:

方面Claude CodeOpenSkills
调用方式Skill("pdf")openskills read pdf
提示词格式<available_skills> XML完全相同
文件夹结构.claude/skills/完全相同
SKILL.md 格式YAML + markdown完全相同

从多种来源安装技能:

Terminal window
# Anthropic 官方市场
openskills install anthropics/skills
# 任何 GitHub 仓库
openskills install your-org/custom-skills
# 本地路径
openskills install ./local-skills/my-skill
# 私有 git 仓库
openskills install git@github.com:your-org/private-skills.git

技能仅在需要时加载,保持助手的上下文干净专注。当助手需要技能时:

  1. 助手扫描 AGENTS.md 中的 <available_skills>
  2. 助手执行 openskills read <skill-name>
  3. 完整技能指令加载到上下文
  4. 助手按照指令完成任务

技能可以包含支持资源:

my-skill/
├── SKILL.md # 主要指令
├── references/
│ └── api-docs.md # 支持文档
├── scripts/
│ └── process.py # 辅助脚本
└── assets/
└── template.json # 模板、配置
Terminal window
npm i -g openskills

需要 Node.js 20.6+ 和 Git。

Terminal window
# 从市场交互式选择
openskills install anthropics/skills
# 非交互式安装所有技能
openskills install anthropics/skills -y

Anthropic 市场提供的技能:

  • pdf - PDF 操作(提取、合并、拆分、表单)
  • xlsx - 电子表格创建和分析
  • docx - 文档创建与修订追踪
  • pptx - 演示文稿创建和编辑
  • canvas-design - 创建海报和视觉设计
  • mcp-builder - 构建 Model Context Protocol 服务器
  • skill-creator - 技能编写指南
Terminal window
openskills sync

这会用 <available_skills> 部分更新你的 AGENTS.md 文件:

<skills_system priority="1">
<available_skills>
<skill>
<name>pdf</name>
<description>综合 PDF 操作工具包...</description>
<location>project</location>
</skill>
</available_skills>
</skills_system>
Terminal window
# 项目本地(默认,被 gitignore)
openskills install anthropics/skills
# 全局(在所有项目间共享)
openskills install anthropics/skills --global

如果你同时使用 Claude Code 和其他助手:

Terminal window
openskills install anthropics/skills --universal

这会安装到 .agent/skills/ 以避免与 Claude Code 原生市场冲突。

优先级顺序:

  1. ./.agent/skills/(项目通用)
  2. ~/.agent/skills/(全局通用)
  3. ./.claude/skills/(项目)
  4. ~/.claude/skills/(全局)

用于活跃的技能开发:

Terminal window
# 克隆你的技能仓库
git clone git@github.com:your-org/my-skills.git ~/dev/my-skills
# 符号链接到项目
mkdir -p .claude/skills
ln -s ~/dev/my-skills/my-skill .claude/skills/my-skill
# 更改立即生效
openskills sync
---
name: my-skill
description: 这个技能做什么以及何时使用
---
# 指令
当用户要求你做 X 时,执行 Y...
my-skill/
├── SKILL.md
├── references/ # 支持文档
├── scripts/ # 辅助脚本
└── assets/ # 模板、配置
  1. 用你的技能创建 GitHub 仓库
  2. 用户通过以下命令安装:openskills install username/repo-name

使用 OpenSkills 在组织内共享技能,无论团队成员偏好哪个 AI 助手:

Terminal window
# 包含共享技能的团队仓库
openskills install your-org/team-skills

从任何 GitHub 仓库安装技能,不仅限于 Anthropic 市场:

Terminal window
openskills install community-user/useful-skills

将专有技能保存在私有仓库中:

Terminal window
openskills install git@github.com:enterprise/internal-skills.git

无论你使用 Claude Code、Cursor 还是 Windsurf,都能使用相同的技能:

Terminal window
# 处处可用
openskills read pdf

OpenSkills 使用 CLI 命令而非 MCP(Model Context Protocol),因为:

  1. 技能是静态指令 - 不是需要服务器连接的动态工具
  2. 不需要服务器 - 技能只是 markdown 文件
  3. 通用兼容性 - CLI 适用于任何助手
  4. 遵循 Anthropic 设计 - 技能被设计为 SKILL.md 文件
  5. 对用户更简单 - 无需服务器管理

MCP 和技能解决不同的问题。OpenSkills 按照设计实现了技能规范。

每个技能应该处理一个特定领域。不要创建”万能”技能。

描述帮助助手决定何时加载技能:

description: 综合 PDF 操作工具包,用于提取文本和表格、创建新 PDF、合并/拆分文档和处理表单

将详细指令放在 SKILL.md 中,而非描述中。这样可以保持 <available_skills> 部分简洁。

在指令中用具体示例帮助助手理解如何使用你的技能。

特性OpenSkills自定义提示词MCP
通用性按助手不同需要支持
渐进式加载
市场访问不同
设置复杂度各异较高
捆绑资源有限

OpenSkills 通过使 Anthropic 精心设计的技能系统对所有助手可用,使 AI 助手技能民主化。无论你使用 Claude Code、Cursor、Windsurf 还是 Aider,你现在都可以受益于:

  • 跨助手标准化技能格式
  • 通过 GitHub 访问 Anthropic 市场
  • 渐进式加载保持干净上下文
  • 团队和社区间轻松共享技能

立即开始使用:

Terminal window
npm i -g openskills
openskills install anthropics/skills
openskills sync

个人AI基础设施(PAI):构建属于你自己的AI操作系统

个人AI基础设施(PAI)

个人AI基础设施(PAI):构建属于你自己的AI操作系统

Section titled “个人AI基础设施(PAI):构建属于你自己的AI操作系统”

当前,最强大的AI系统都在企业内部构建,用于提升效率和利润。但如果每个人都能拥有同样精密的AI基础设施呢?这正是**个人AI基础设施(PAI)**所提供的。

由安全研究员和AI先驱Daniel Miessler创建,PAI是一个开源模板,用于构建你自己的AI驱动操作系统。它是创建个人AI系统的基础——理解你的长远目标和上下文,随时间改进,为服务,因为它是你的

PAI(Personal AI Infrastructure)是基于Claude Code构建的开源脚手架,设计为平台无关。其架构、技能和工作流的结构使得未来迁移到其他AI平台变得简单。

“世界上最好的AI应该对每个人开放。”

技术的目的是服务人类——而不是相反。PAI使普通人能够使用AI来帮助他们成长,不仅仅是企业内的技术工作者。

技能是具有路由、工作流和文档的自包含AI能力。每个技能遵循”技能即容器”模式:

组件描述
技能(Skills)编码为可复用模块的领域专业知识(安全分析、内容创作、研究工作流)
代理(Agents)用于不同任务的专业AI人格(工程师、研究员、设计师)
钩子(Hooks)捕获工作和管理状态的事件驱动自动化
历史(History)捕获一切的自动文档系统(UOCS)

PAI不是将所有内容塞入巨大的提示词中,而是将知识组织成层级结构:

  • 项目(Projects):带上下文的活跃工作
  • 方法论(Methodologies):你解决问题的方式
  • 哲学(Philosophy):你的原则和价值观
  • 工具(Tools):技术能力
  • 任务(Tasks):具体的动作和工作流

每个目录包含专门的知识,仅在需要时加载。

PAI包含与Fabric模式的原生集成——248+个用于内容分析和生成的AI模式:

  • extract_wisdom:从内容中提取关键见解
  • summarize:创建简洁摘要
  • threat_modeling:安全分析工作流
  • 还有245+个模式

模式直接在Claude的上下文中运行,使用你订阅的模型,完全访问对话历史。

PAI建立在13条基础原则上:

  1. 清晰思考+提示词为王 - 质量输出取决于质量思考
  2. 脚手架 > 模型 - 系统架构比AI模型能力更重要
  3. 尽可能确定性 - 相同输入 → 相同输出
  4. 代码优先于提示词 - 用代码解决问题,提示词用于编排
  5. 规格/测试/评估优先 - 在实现之前定义预期行为
  6. UNIX哲学 - 做好一件事,通过标准接口组合工具
  7. 工程/SRE原则 - 将软件工程严谨性应用于AI系统
  8. CLI作为接口 - 每个操作都可通过命令行访问
  9. 目标 → 代码 → CLI → 提示词 → 代理 - 正确的开发管道
  10. 元/自我更新系统 - 能够自我改进的系统
  11. 自定义技能管理 - 技能作为组织单元
  12. 自定义历史系统 - 自动捕获有价值的工作
  13. 自定义代理人格 - 用于不同任务的专业代理
Terminal window
# 1. 克隆PAI
git clone https://github.com/danielmiessler/PAI.git ~/PAI
# 2. 创建符号链接
[ -d ~/.claude ] && mv ~/.claude ~/.claude.backup
ln -s ~/PAI/.claude ~/.claude
# 3. 运行设置向导
~/.claude/Tools/setup/bootstrap.sh
# 4. 配置API密钥
cp ~/.claude/.env.example ~/.claude/.env
nano ~/.claude/.env
# 5. 启动Claude Code
source ~/.zshrc
claude
Terminal window
# 与macOS相同步骤,但source ~/.bashrc
source ~/.bashrc
claude

Windows设置(以管理员身份运行PowerShell)

Section titled “Windows设置(以管理员身份运行PowerShell)”
Terminal window
# 克隆并创建符号链接
git clone https://github.com/danielmiessler/PAI.git $env:USERPROFILE\PAI
New-Item -ItemType SymbolicLink -Path "$env:USERPROFILE\.claude" -Target "$env:USERPROFILE\PAI\.claude"
# 运行设置并配置
& "$env:USERPROFILE\.claude\tools\setup\bootstrap.ps1"
Copy-Item "$env:USERPROFILE\.claude\.env.example" "$env:USERPROFILE\.claude\.env"

在添加复杂性之前,先构建使AI可靠的脚手架。遵循Miessler的”解决一次,永远复用”哲学,每个组件都变得可复用。

每次解决问题时,将其转化为可复用组件:

  • 命令用于特定工作流(write-blog-postanalyze-security
  • Fabric模式用于内容分析和生成
  • 技能用于领域专业知识

历史系统解决了会话之间的上下文丢失问题。一切都被自动记录:

  • 工作产出和决策
  • 使用的模式和方法
  • 学到的经验

PAI完全平台无关——你的AI身份,你的系统:

  • 配置你的DA(数字助手)名称
  • 设置你的偏好和原则
  • 定义你的工作风格
  • 带领域上下文的威胁建模
  • 漏洞分析工作流
  • 安全报告生成
  • 用你的声音写博客文章
  • 研究综合和摘要
  • 文档生成
  • 按你的标准进行代码审查
  • 架构决策文档
  • 项目脚手架
  • 研究捕获和组织
  • 学习文档
  • 决策日志
类别选择
运行时Bun(不是Node.js)
语言TypeScript(不是Python)
包管理器Bun
格式Markdown
测试Vitest
语音ElevenLabs TTS
  • 可观测性仪表板:带实时图表的实时代理监控
  • 通用化身份:在整个系统中配置你的DA名称
  • 平台无关配置:身份/路径与API密钥的清晰分离
  • 原生Fabric模式:248个模式直接在Claude上下文中运行

不!PAI旨在让普通人也能访问精密的AI基础设施。虽然技术知识有帮助,但目标是人类的成长,而不仅仅是开发者生产力。

Q: 我可以用Claude以外的模型使用PAI吗?

Section titled “Q: 我可以用Claude以外的模型使用PAI吗?”

可以。虽然目前基于Claude Code构建,但PAI的架构是平台无关的。技能、工作流和模式可以迁移到其他AI平台。

Q: PAI与直接使用Claude Code有什么不同?

Section titled “Q: PAI与直接使用Claude Code有什么不同?”

PAI在Claude Code之上添加了结构、历史、技能和模式。它不是不同的AI——而是一个使Claude Code专门为你工作的框架。

是的,PAI在MIT许可下开源。你需要Claude订阅来获得底层AI能力。

特性PAI原生Claude Code自定义GPTs
技能系统✅ 65+技能有限
历史持久化✅ 自动
原生Fabric✅ 248模式
自我更新
开源✅ MITN/A
平台无关

个人AI基础设施代表了我们思考AI辅助方式的范式转变。与其依赖通用聊天机器人或企业AI系统,PAI使个人能够构建以下AI基础设施:

  • 了解你的上下文:你的目标、偏好和工作风格
  • 随时间学习:历史积累,模式浮现
  • 服务你的利益:不是参与度指标或企业利润
  • 属于你自己:开源、可移植、可定制

正如Daniel Miessler所指出的,AI基础设施的真正力量不在于模型智能,而在于编排。当你创建一个了解你、适应你需求、代表你自主工作的系统时,魔法就会发生。

从干净开始。从小规模开始。构建你需要的AI基础设施。

SkillsMP:AI 代理技能开放市场

SkillsMP Cover

AI 编程助手已经成为开发者不可或缺的工具,但它们的能力往往局限于内置功能。SkillsMP 改变了这一现状,提供了一个开放的市场平台,开发者可以在多个 AI 平台上发现、安装和共享技能。

SkillsMP 是一个开源市场,托管超过 31,000 个代理技能,可与最流行的 AI 编程助手无缝协作:

  • Claude Code - Anthropic 官方 CLI 工具
  • Codex CLI - OpenAI 命令行界面
  • ChatGPT - 全球最受欢迎的 AI 助手

所有技能都使用统一的 SKILL.md 格式,确保跨平台兼容性,便于在不同 AI 工具之间共享能力。

SKILL.md 格式是代理技能生态系统的基础。它通过以下方式定义模块化能力:

  • 指令 - 清晰地指导 AI 技能的作用和使用方法
  • 脚本(可选)- 扩展功能的支持代码
  • 模板(可选)- 常用输出的预构建结构

技能是模型调用的,而不是用户调用的。这意味着 AI 助手会根据请求的上下文决定何时激活技能,而不需要显式命令。

---
name: my-skill
description: 这个技能做什么以及何时使用
---
# 指令
当用户要求做 X 时,按照以下步骤...

不同的 AI 工具有各自的技能目录:

工具个人技能项目技能
Claude Code~/.claude/skills/.claude/skills/
Codex CLI~/.codex/skills/.codex/skills/
ChatGPT通过插件系统通过插件系统

SkillsMP 将其庞大的技能库组织成 13 个类别

  1. 工具 - 通用生产力增强器
  2. 开发 - 代码生成和重构
  3. 数据与AI - 数据分析和机器学习工具
  4. 商业 - 业务流程自动化
  5. DevOps - 基础设施和部署
  6. 测试与安全 - 质量保证和安全扫描
  7. 文档 - 文档生成和维护
  8. 内容与媒体 - 内容创作工具
  9. 生活方式 - 个人生产力
  10. 研究 - 信息收集
  11. 数据库 - 数据库操作
  12. 区块链 - Web3 和加密货币工具

SkillsMP 通过以下方式保持质量:

  • 最少 2 星过滤 - 只收录经过社区验证的 GitHub 仓库
  • 开源要求 - 所有技能都可公开审计
  • 建议用户审查 - 安装前务必审查代码

访问 skillsmp.com 浏览市场。你可以:

  • 按关键词搜索
  • 按类别筛选
  • 按热度或时间排序
  • 查看技能文档

对于 Claude Code,安装非常简单:

Terminal window
# 从市场安装技能
curl -O https://skillsmp.com/skills/skill-name/SKILL.md
mv SKILL.md ~/.claude/skills/skill-name/

许多技能还通过其 marketplace.json 配置支持一键安装。

Claude Code 支持同时运行多个技能。AI 会根据上下文智能选择要激活的技能,实现组合多种能力的复杂工作流程。

想要为市场做贡献?创建技能只需要一个 SKILL.md 文件:

---
name: my-custom-skill
description: 对这个技能功能的简要描述
author: your-github-username
version: 1.0.0
---
# 我的自定义技能
## 使用时机
当用户请求...时使用此技能
## 指令
1. 首先,做这个...
2. 然后,做那个...
3. 最后,完成...
## 示例
### 示例 1
用户:"帮我处理 X"
响应:[如何处理此请求]
  1. 创建包含你技能的 GitHub 仓库
  2. 添加 marketplace.json 以便于安装
  3. 提交给 SkillsMP 进行索引

重要提示:SkillsMP 是一个独立的社区项目。它与 Anthropic 或 OpenAI 没有关联

官方技能资源:

  1. 安装前审查 - 务必检查源代码
  2. 从热门技能开始 - 更多星标表示社区信任
  3. 保持技能更新 - 定期检查更新
  4. 报告问题 - 帮助改善生态系统
  1. 编写清晰的描述 - 帮助用户了解何时使用你的技能
  2. 包含示例 - 展示具体的使用场景
  3. 详尽文档 - 解释所有功能和限制
  4. 跨平台测试 - 确保兼容性

围绕 SKILL.md 的标准化代表了扩展 AI 能力方式的重大转变。随着更多开发者创建和共享技能:

  • 专业化增强 - 技能变得更加专注和强大
  • 质量提升 - 社区策展推动卓越
  • 采用率增长 - 简易安装消除障碍
  • 创新加速 - 在他人工作基础上构建加速开发

SkillsMP 通过以下方式使 AI 代理能力民主化:

  • 31,000+ 即用技能,跨越 13 个类别
  • 跨平台兼容性,通过 SKILL.md 标准
  • 开源透明,配合社区质量控制
  • 简易安装,支持所有主要 AI 编程助手

无论你是想增强 AI 编程工作流程,还是想为社区贡献自己的技能,SkillsMP 都提供了实现这一目标的平台。

MoneyMind(省钱思维)iOS 应用送审 App Store

MoneyMind(省钱思维)iOS 应用送审 App Store

Section titled “MoneyMind(省钱思维)iOS 应用送审 App Store”

MoneyMind(省钱思维)是一款帮助用户设定储蓄目标并通过日常小额存钱实现目标的 App 应用。从 2025 年 11 月初开始开发,断断续续画了一个多月,终于在 2025 年 12 月初完成代码开发。这段时间忙于处理其它项目,一直懒得提交审核。今天赶在圣诞节前夕,终于把应用提交到 App Store 审核。整个过程花了不少时间,遇到了一些坑,也学到了不少经验。本文将详细记录从准备应用图标、配置证书、上传构建到最终提交审核的完整流程,希望能帮助到同样准备上架 iOS 应用的开发者朋友们。

对于首次提交 iOS 应用的开发者来说,App Store 上架流程可能会让人望而生畏。本指南将以我们的 MoneyMind(省钱思维)应用为真实案例,带你完整走过整个流程。无论你使用 Flutter、SwiftUI 还是 UIKit 开发,这些步骤都适用于所有 iOS 应用提交。

App Store 提交流程包含以下几个关键阶段:

  1. 应用准备 - 图标、资源和构建配置
  2. 证书与配置文件 - Apple Distribution 证书设置
  3. App Store Connect 配置 - 应用信息、定价和截图
  4. 构建上传 - 通过 Xcode 打包并上传
  5. 提交审核 - 最终检查清单与提交

让我们逐步深入每个环节。

应用图标是用户对你 App 的第一印象。Apple 有严格的要求:

  • 尺寸:1024 × 1024 像素
  • 格式:PNG,不能有透明度
  • 形状:正方形(iOS 会自动添加圆角)
  • 安全区域:关键元素保持在中心 600-700px 范围内

应用图标

ChatGPT 和 Gemini 等现代 AI 工具可以帮助设计应用图标:

  1. 描述你应用的目的和品牌定位
  2. 请求多个变体方案
  3. 在最佳方案上进行迭代
  4. 导出 1024×1024px 无透明度的 PNG

对于 Flutter 项目,使用 flutter_launcher_icons

pubspec.yaml
flutter_icons:
android: true
ios: true
image_path: "assets/icon/app_icon.png"
remove_alpha_ios: true # iOS 关键配置 - 移除透明度

运行图标生成器:

Terminal window
flutter pub get
flutter pub run flutter_launcher_icons

你需要 Apple Distribution 证书才能向 App Store 提交应用。

证书类型用途是否推荐
Apple DistributionApp Store、TestFlight、Ad Hoc✅ 推荐
iOS Distribution旧版 - 正在被弃用❌ 不推荐
Mac App Distribution仅用于 Mac App Store仅 Mac
  1. 在 Mac 上打开 钥匙串访问
  2. 选择 钥匙串访问 > 证书助理 > 从证书颁发机构请求证书
  3. 输入你的邮箱,选择”存储到磁盘”
  4. 前往 Apple 开发者门户
  5. 导航到 Certificates, Identifiers & Profiles
  6. 点击 + 创建新证书
  7. 选择 Apple Distribution
  8. 上传你的证书签名请求(CSR)文件
  9. 下载并双击安装

对于简单项目,在 Xcode 中启用自动签名:

  1. 在 Xcode 中打开项目
  2. 选择你的 Target
  3. 进入 Signing & Capabilities
  4. 勾选 Automatically manage signing
  5. 选择你的开发者团队

第三步:构建并上传到 App Store Connect

Section titled “第三步:构建并上传到 App Store Connect”
  1. 在 Xcode 中,选择 Product > Archive
  2. 等待构建完成
  3. Organizer 窗口会自动打开

上传到 Apple

  1. 在 Organizer 中,选择你的存档
  2. 点击 Distribute App
  3. 选择 App Store Connect
  4. 选择 Upload
  5. 按提示完成操作

上传后:

  • Apple 会处理你的构建(5-30 分钟)
  • 处理完成后你会收到邮件
  • 在 App Store Connect 中检查是否有问题

邮件通知

重要提示:定期检查邮件!Apple 可能会标记问题,导致你的构建无法显示在 App Store Connect 中。

构建

填写基本信息:

应用信息

  • 名称:MoneyMind 省钱思维
  • 副标题:帮助你 制定省钱目标、记录每日省钱行动
  • 类别:财务(主要)、生活方式(次要)

Apple 要求提供隐私政策和服务条款的 URL:

隐私设置

  1. 创建隐私政策和服务条款文档
  2. 托管在可公开访问的 URL
  3. 在 App Store Connect 中填入 URL

我们在网站上托管这些文档:

  • 隐私政策:https://yoursite.com/privacy
  • 服务条款:https://yoursite.com/terms

配置应用定价:

定价

  • 选择价格层级或选择”免费”
  • 按国家/地区选择可用性
  • 如需要可设置预订选项

完成年龄分级问卷:

  • 如实回答应用内容相关问题
  • 类别包括暴力、赌博、成人主题等
  • 系统会自动计算你的分级

声明你的应用是否包含、展示或访问第三方内容。

如果你的应用不使用加密(或仅使用豁免加密),在 Info.plist 中添加:

<key>ITSAppUsesNonExemptEncryption</key>
<false/>

应用加密文档

这样可以避免 Apple 在每次提交时询问加密合规问题。

如果你的应用访问照片图库,添加:

<key>NSPhotoLibraryUsageDescription</key>
<string>允许访问您的照片图库以选择照片。</string>

截图对 App Store 展示至关重要。你需要为多种设备尺寸准备截图。

  • 要求尺寸:1242 × 2678 像素(6.7 英寸屏幕)
  • 处理方式:移除顶部状态栏(约 100px)
  • 数量:1-10 张截图
  • 要求尺寸:2064 × 2752 像素(12.9 英寸屏幕)
  • 处理方式:移除顶部状态栏(约 36px)
  • 数量:1-10 张截图
  1. 展示核心功能 - 突出应用最佳功能
  2. 添加说明文字 - 简短说明每个界面
  3. 使用设备边框 - 可选但更专业
  4. 保持一致性 - 所有截图风格统一
  5. 本地化 - 不同语言使用不同截图

App Store Connect 支持多语言:

  1. 进入 App 信息
  2. 点击主语言旁边的 +
  3. 添加支持的语言
  4. 填写本地化内容:
    • 应用名称
    • 副标题
    • 描述
    • 关键词
    • 截图
  • 英语(美国/英国)
  • 简体中文
  • 日语
  • 韩语
  • 德语
  • 法语
  • 西班牙语
  • 应用图标已上传
  • 所有设备尺寸的截图已准备
  • 隐私政策 URL 可访问
  • 服务条款 URL 可访问
  • 应用描述完整
  • 关键词已优化
  • 年龄分级已完成
  • 构建已上传并处理完成
  • 在 App Store Connect 中已选择构建
  • 联系信息准确
  1. 在 App Store Connect 中导航到你的应用
  2. 选择应用版本
  3. 点击 提交以供审核
  4. 回答审核问题
  5. 确认提交

审核中

  • 初次审核:通常 24-48 小时
  • 拒绝后重新提交:通常 24 小时内回复
  • 加急审核:适用于关键问题

问题:应用崩溃、有占位内容或功能不完整。

解决方案:提交前彻底测试。移除所有 TODO 或占位文字。

问题:截图与实际应用不符,描述具有误导性。

解决方案:每次重大 UI 变更后更新截图。

问题:缺少隐私政策或数据处理声明不当。

解决方案:创建全面的隐私政策,在 App Store Connect 中声明所有数据收集。

问题:应用过于简单或提供的价值不足。

解决方案:确保你的应用提供超出网站所能提供的有意义功能。

模拟器测试是不够的。测试设备包括:

  • 多款 iPhone 机型
  • iPad(如果是通用应用)
  • 支持的最老 iOS 版本

Apple 通过邮件沟通以下内容:

  • 构建处理问题
  • 审核状态更新
  • 拒绝原因
  • 应用审批通知

专业且快速地响应拒绝:

  • 向 Apple 展示你的积极态度
  • 解决所有提出的问题点
  • 如需要可请求澄清

使用 TestFlight 用于:

  • 提交前的 Beta 测试
  • 快速迭代修复
  • 收集用户反馈

不要在最后时刻提交:

  • 预留 1-2 周的审核缓冲时间
  • 考虑可能的拒绝情况
  • 节假日期间队列可能更长

提交到 App Store 需要细致入微和耐心。按照本指南充分准备,你就能顺利完成流程,将应用送到用户手中。

关键要点:

  1. 提前准备素材 - 图标、截图和元数据都需要时间
  2. 彻底测试 - 真机测试可避免被拒
  3. 阅读指南 - Apple 指南会更新;保持关注
  4. 快速响应 - 对 Apple 的快速响应可加快审核
  5. 监控通讯 - 邮件是你与 Apple 联系的生命线

祝你 App Store 提交顺利!


有关于 iOS 开发的问题?查看我们关于 Flutter 开发和移动应用最佳实践的其他指南。

Agent Skills 上下文工程指南:构建生产级 AI 智能体系统

Agent Skills 上下文工程指南:构建生产级 AI 智能体系统

Section titled “Agent Skills 上下文工程指南:构建生产级 AI 智能体系统”

在快速发展的 AI 开发领域,上下文工程(Context Engineering) 已成为构建有效智能体系统最关键的学科之一。与专注于编写有效指令的提示工程不同,上下文工程解决的是如何全面管理进入模型有限注意力窗口的所有信息。

Agent Skills for Context Engineering 是由 Murat Can Koylan 创建的一个全面、开源的技能集合,旨在教授策划上下文的艺术和科学,以最大化任何平台上的智能体效能。

上下文工程是管理语言模型上下文窗口的学科。核心挑战在于上下文窗口不是受原始 token 容量限制,而是受注意力机制限制。

随着上下文长度增加,模型会表现出可预测的退化模式:

  • 中间丢失现象(Lost-in-the-Middle) - 长上下文中间的信息获得的注意力更少
  • U形注意力曲线 - 模型更关注上下文的开头和结尾
  • 注意力稀缺 - 有限的”注意力预算”必须明智分配

有效的上下文工程意味着找到最小可能的高信号 token 集合,以最大化预期结果的可能性。这需要理解什么是上下文、它如何退化,以及如何优化它。

该集合按照复杂度递增分为三个层级。

这些技能建立了后续所有上下文工程工作所需的基础理解。

技能描述
context-fundamentals理解什么是上下文、为什么重要,以及智能体系统中上下文的结构
context-degradation识别上下文失效模式:中间丢失、污染、干扰和冲突
context-compression为长时运行会话设计和评估压缩策略

这些技能涵盖构建有效智能体系统的模式和结构。

技能描述
multi-agent-patterns掌握编排器、点对点和分层多智能体架构
memory-systems设计短期、长期和基于图的记忆架构
tool-design构建智能体可以有效使用的工具

这些技能解决智能体系统的持续运行和优化问题。

技能描述
context-optimization应用压缩、掩码和缓存策略
evaluation为智能体系统构建评估框架

理解智能体系统中上下文的结构至关重要:

上下文组成部分:

  • 系统提示词
  • 工具定义
  • 检索到的文档
  • 消息历史
  • 工具输出

每个组成部分都在竞争有限的注意力。有效的智能体会优先处理高信号信息,压缩或消除低信号内容。

识别失效模式有助于预防它们:

中间丢失(Lost-in-Middle): 放置在长上下文中间的关键信息获得的模型注意力较少。

上下文污染(Context Poisoning): 错误或冲突的信息破坏模型的理解。

上下文干扰(Context Distraction): 无关信息分散了对重要内容的注意力。

上下文冲突(Context Clash): 矛盾的指令或数据造成混乱。

多智能体系统的三种主要架构:

编排器模式(Orchestrator Pattern): 一个中央智能体协调专门的子智能体,管理任务委派和结果汇总。

[编排器]
/|\
/ | \
/ | \
[智能体][智能体][智能体]

点对点模式(Peer-to-Peer Pattern): 智能体直接通信,无需中央协调,适合协作任务。

分层模式(Hierarchical Pattern): 分层的智能体结构,高层智能体管理低层智能体组。

有效的智能体需要多种记忆类型:

短期记忆:

  • 最近的对话上下文
  • 当前任务状态
  • 即时工作记忆

长期记忆:

  • 持久知识存储
  • 用户偏好
  • 历史模式

基于图的记忆:

  • 概念之间的关系图
  • 实体连接
  • 语义网络

通过引用仓库或将技能文件夹复制到配置的技能目录来安装技能:

Terminal window
# 克隆仓库
git clone https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering.git
# 复制技能到你的项目
cp -r Agent-Skills-for-Context-Engineering/skills/* ./skills/

在处理上下文工程任务时,激活相关技能以加载其指令。

将技能内容复制到 .cursorrules 或创建项目特定的规则文件:

Terminal window
# 创建规则文件
cat skills/context-fundamentals/SKILL.md >> .cursorrules

这些技能提供 Cursor 智能体进行有效上下文工程所需的上下文和指南。

从任何技能中提取原则和模式,在你的智能体框架中实现它们。这些技能故意设计为平台无关,使其适用于任何基于 LLM 的系统。

开发面向实际部署的智能体时:

  • 从基础开始 - 在优化之前理解上下文结构
  • 尽早设计记忆 - 记忆架构影响所有下游决策
  • 规划退化应对 - 内置监控和恢复机制
  • 规模测试 - 评估框架在生产前捕获问题

对于已有智能体系统的团队:

  • 诊断上下文问题 - 使用退化模式识别问题
  • 应用压缩策略 - 在不丢失信号的情况下减少 token 使用
  • 实现缓存 - 避免冗余的上下文加载
  • 添加监控 - 建立对上下文使用的可见性

构建多个协调智能体的系统时:

  • 选择正确的模式 - 编排器 vs 点对点 vs 分层
  • 设计通信协议 - 智能体如何共享上下文
  • 管理共享记忆 - 无冲突的协调
  • 优雅处理故障 - 智能体失败时的恢复

用于学习智能体开发:

  • 渐进式披露 - 技能按逻辑顺序相互构建
  • 实用示例 - Python 伪代码演示概念
  • 平台无关 - 学习原则,而非供应商锁定
  • 开源 - 学习、修改和贡献
1. 加载 context-fundamentals 技能
2. 审查夜间智能体日志中的退化模式
3. 识别上下文瓶颈
4. 规划优化任务
5. 更新监控仪表板
1. 激活 multi-agent-patterns 技能
2. 设计智能体架构图
3. 为每个智能体定义上下文边界
4. 实现记忆系统
5. 构建评估框架
6. 使用 context-degradation 检查进行测试
1. 加载 context-degradation 技能
2. 识别症状(中间丢失?污染?)
3. 追踪系统中的上下文流
4. 应用适当的修复策略
5. 使用 evaluation 技能验证

该集合遵循三个关键原则:

1. 渐进式披露

每个技能都为高效上下文使用而结构化。启动时,智能体只加载技能名称和描述。只有在为相关任务激活技能时才加载完整内容。

2. 平台无关性

这些技能专注于可转移的原则,而非供应商特定的实现。这些模式适用于 Claude Code、Cursor 以及任何支持技能或允许自定义指令的智能体平台。

3. 概念基础与实用示例相结合

脚本和示例使用 Python 伪代码演示概念,可在不需要特定依赖安装的情况下跨环境工作。

每个技能遵循 Agent Skills 规范:

skill-name/
├── SKILL.md # 必需:指令 + 元数据
├── scripts/ # 可选:可执行代码
└── references/ # 可选:额外文档

贡献新技能时:

  1. 遵循技能模板结构
  2. 提供清晰、可操作的指令
  3. 在适当时包含工作示例
  4. 记录权衡和潜在问题
  5. 保持 SKILL.md 在 500 行以内以获得最佳性能
功能Agent Skills自定义规则框架文档
平台支持任何平台特定框架特定
焦点上下文工程通用框架使用
结构标准化可变可变
渐进加载
开源MIT不定不定
示例Python 伪代码不定框架特定

相比自定义规则:

  • 标准化结构实现共享和复用
  • 渐进式披露减少初始上下文成本
  • 社区贡献扩展覆盖范围

相比框架文档:

  • 专注于原则,而非实现细节
  • 可跨平台转移
  • 面向生产系统的实用导向

Q: 这些技能适用于任何 LLM 吗? A: 是的,这些原则与 LLM 无关。示例使用 Python 伪代码,可以适应任何环境。

Q: 我怎么知道使用哪个技能? A: 从基础开始,然后为设计决策使用架构技能,为优化使用运维技能。

Q: 我可以贡献新技能吗? A: 当然可以!遵循模板结构并提交 pull request。欢迎社区贡献。

Q: 使用这些技能有相关费用吗? A: 没有,仓库采用 MIT 许可证。但是,你使用这些技能的 LLM 可能有相关费用。

Q: 技能如何处理上下文限制? A: 渐进式披露意味着只加载相关内容。每个技能设计为保持在 500 行以内。

技能无法加载:

  • 确保技能文件夹结构正确
  • 检查技能目录中是否存在 SKILL.md
  • 验证文件权限

智能体性能不佳:

  • 查看 context-degradation 技能以获取诊断模式
  • 检查是否超出上下文窗口
  • 评估信息信噪比

多智能体协调问题:

  • 查看 multi-agent-patterns 技能
  • 检查消息传递协议
  • 验证共享记忆访问模式

上下文工程正在成为 AI 开发中与软件工程原则对传统开发一样基础的学科。Agent Skills for Context Engineering 为掌握这一关键学科提供了结构化、开放和平台无关的基础。

无论你是在构建第一个智能体还是优化生产多智能体系统,这些技能都提供了成功所需的概念基础和实用指导。渐进式披露设计意味着你可以从小处开始,根据需要扩展,而平台无关的方法确保你的学习可以跨工具和框架转移。

AI 智能体生态系统正在快速成熟,上下文工程将成为区分”能工作”和”工作得好”的智能体的关键差异化因素。从基础开始,理解退化模式,构建有效管理上下文的系统。


Agent Skills for Context Engineering 探索完整集合,加入构建更好智能体系统的社区。

Figroot: 免费 Figma 转 React + Tailwind CSS 代码生成器完全指南

Figroot: Figma to React &#x26; Tailwind CSS

你是否厌倦了手动将 Figma 设计翻译成 React 代码?来认识 Figroot - 这是唯一一款免费的 Figma 转 React 和 Tailwind CSS 插件,能够生成具有语义化 HTML 的生产级代码。

无论你是会写代码的设计师,还是懂设计的开发者,Figroot 都能通过即时将你的 Figma 文件转换为干净、响应式的 React 组件和 Tailwind CSS 样式,来弥合设计与开发之间的鸿沟。

核心亮点:

  • 100% 免费 - 无需订阅
  • 一键转换为 React + Tailwind CSS
  • 语义化 HTML 输出,提升可访问性
  • 像素级精准的响应式代码
  • 被 Lovable 等公司团队使用

在 Figma 社区试用 Figroot


Figroot 只需一键点击即可将你的 Figma 设计转换为生产就绪的代码。无需手动 CSS 翻译或重新创建布局 - 插件自动处理一切。

支持的输出格式:

  • React JSX - 现代组件化架构
  • Tailwind CSS - 实用优先的样式框架
  • HTML/CSS - 传统 Web 标记选项

与其他生成大量 div 嵌套的代码生成器不同,Figroot 创建语义化 HTML 元素:

  • 正确的标题层级(h1h2h3)
  • 语义化容器(sectionarticlenav)
  • 带标签的可访问表单元素
  • 适当位置的 ARIA 属性

生成的代码在所有视口尺寸上保持精确的设计保真度:

  • 自动检测 Figma Auto Layout 中的响应式断点
  • 生成移动优先的 Tailwind 类
  • 保留间距、排版和颜色系统

Figroot 生成开发者真正愿意使用的代码:

  • 没有不必要的包装 div
  • 逻辑清晰的组件结构
  • 可复用的工具类
  • 正确的缩进和格式化

  • Figma 账户(免费或付费)
  • Figma 桌面应用或浏览器访问
  • React 和 Tailwind CSS 基础知识(用于实现)

步骤 1: 打开 Figma 并导航到社区标签页

步骤 2: 在插件区域搜索 “Figroot”

步骤 3: 在 Figroot 插件页面点击”安装”

步骤 4: 通过右键 > 插件 > Figroot 访问插件

或者直接从 Figma 社区页面 安装。

  1. 在 Figma 文件中选择一个框架或组件
  2. 运行 Figroot 插件(插件 > Figroot)
  3. 选择输出格式(推荐 React + Tailwind)
  4. 点击”生成代码”
  5. 将生成的代码复制到你的项目中

优化 Figma 文件以获得更好的代码

Section titled “优化 Figma 文件以获得更好的代码”

设计结构技巧:

Figma 实践代码收益
使用 Auto Layout更好的响应式代码
有意义的图层命名语义化的类名
使用 Figma 组件可复用的 React 组件
保持一致的间距干净的 Tailwind 工具类

设计工程师适用:

  1. 设计阶段

    • 在 Figma 中使用正确的约束创建 UI
    • 为所有容器使用 Auto Layout
    • 应用一致的设计令牌(颜色、排版、间距)
  2. 导出阶段

    • 选择要转换的框架
    • 运行 Figroot 生成 React + Tailwind 代码
    • 检查输出是否需要调整
  3. 集成阶段

    • 将生成的组件粘贴到 React 项目中
    • 添加业务逻辑和状态管理
    • 连接数据源和 API

落地页:

  • 快速创建营销页面
  • A/B 测试变体
  • 活动专属设计

组件库:

  • 构建设计系统
  • 创建可复用 UI 组件
  • 跨项目保持一致性

原型到生产:

  • 快速 MVP 开发
  • 带可运行代码的客户演示
  • 迭代式设计到代码循环

问题:代码与设计不完全匹配

解决方案: 确保你的 Figma 文件正确使用 Auto Layout 和约束。尽可能避免绝对定位。

问题:嵌套 div 过多

解决方案: 在导出前扁平化 Figma 中的复杂图层结构。谨慎使用 Group,优先使用带 Auto Layout 的 Frame。

问题:缺少 Tailwind 类

解决方案: 确保你的 Tailwind 配置包含设计中使用的所有必要颜色和间距值。

  • 复杂动画需要手动实现
  • 自定义字体需要单独安装到项目中
  • SVG 图标导出后可能需要优化
  • 交互状态(hover、focus)需要手动添加

问:Figroot 真的免费吗?

答:是的!Figroot 100% 免费使用,没有隐藏费用或订阅层级。

问:它能配合 Figma Dev Mode 使用吗?

答:可以,Figroot 通过提供完整的 React 组件而不仅仅是 CSS 片段来补充 Figma 的 Dev Mode。

问:我可以用于商业项目吗?

答:当然可以。生成的代码归你所有,可用于任何个人或商业项目。


Figroot 与其他 Figma 转代码插件对比

Section titled “Figroot 与其他 Figma 转代码插件对比”
功能FigrootAnimaLocofy.aiBuilder.io
价格免费$31/月起$29/月起$49/月起
React 支持
Tailwind CSS有限
语义化 HTML部分部分部分
代码质量
学习曲线

选择 Figroot 当:

  • 预算有限(免费!)
  • 特别需要 React + Tailwind CSS
  • 语义化 HTML 对可访问性很重要
  • 你想要简单、干净的代码输出

考虑其他选择当:

  • 你需要 Vue 或 Angular 支持
  • 需要复杂动画导出
  • 你想要内置 CMS 集成


Figroot 作为将 Figma 设计转换为 React 和 Tailwind CSS 代码的最佳免费选项脱颖而出。它专注于语义化 HTML、干净的代码输出和零成本可访问性,使其成为现代前端开发工作流的必备工具。

关键要点:

  • 节省数小时手动 CSS 到 Tailwind 的翻译时间
  • 即时获得生产级 React 组件
  • 通过像素级精准的代码保持设计保真度
  • 无订阅费用或使用限制

立即开始使用 Figroot,革新你的设计到开发工作流!

MCPCAN:一站式MCP服务集中管理平台

MCPCAN MCP服务集中管理平台

MCPCAN:一站式MCP服务集中管理平台

Section titled “MCPCAN:一站式MCP服务集中管理平台”

随着Model Context Protocol(MCP)生态系统的持续扩展,在开发和生产环境中管理多个MCP服务变得日益复杂。MCPCAN应运而生——这是一个综合性的集中管理平台,采用容器化方式部署MCP服务,同时提供强大的安全、监控和协议转换能力。

MCPCAN是一个开源的、Kubernetes原生的平台,专为DevOps团队设计,用于管理MCP服务的完整生命周期。它解决了MCP部署中的关键挑战:

  • 配置冲突:容器隔离消除系统级冲突
  • 安全漏洞:内置Token验证和权限管理
  • 部署复杂:Helm图表一键部署
  • 协议碎片化:SSE、STDIO和STREAMABLEHTTP之间无缝转换

基于Vue.js的Web界面提供所有MCP服务实例的集中控制:

  • 可视化服务配置管理
  • 实时状态监控
  • 批量操作支持
  • 服务生命周期控制(启动/停止/重启)

MCPCAN支持三种主要的MCP访问协议:

协议使用场景特点
SSE实时流式传输服务器发送事件,持续更新
STDIO本地集成CLI工具的标准输入/输出
STREAMABLEHTTPWeb应用基于HTTP的流式传输,兼容性广泛

平台自动处理协议转换,允许为一种协议编写的服务通过另一种协议访问。

安全性是MCPCAN核心架构的基础:

  • Token验证:每个MCP服务请求都经过验证
  • 身份认证:用户级别的访问控制
  • 权限管理:基于角色的服务访问
  • 审计日志:完整的请求追踪

每个MCP服务在独立的容器中运行:

# 服务配置示例
apiVersion: mcpcan/v1
kind: MCPService
metadata:
name: my-mcp-tool
spec:
image: mcpcan/tool:latest
protocol: sse
resources:
memory: 256Mi
cpu: 100m

优势包括:

  • 资源隔离和限制
  • 独立扩展
  • 轻松回滚和版本控制
  • 一致的环境

全面的可观测性功能:

  • 服务健康仪表板
  • 性能指标收集
  • 资源利用率追踪
  • 告警配置

MCPCAN遵循基于Kubernetes的微服务架构:

┌─────────────────────────────────────────────────────────────┐
│ MCPCAN 平台 │
├─────────────────┬─────────────────┬────────────────────────┤
│ MCPCan-Web │ MCPCan-Gateway │ MCPCan-Authz │
│ (Vue.js 3) │ (协议网关) │ (认证服务) │
├─────────────────┴─────────────────┴────────────────────────┤
│ MCPCan-Market │
│ (服务市场) │
├─────────────────────────────────────────────────────────────┤
│ Kubernetes (k3s) │
│ MySQL │ Redis │ Ingress-nginx │
└─────────────────────────────────────────────────────────────┘

前端:

  • Vue.js 3.5+ 采用Composition API
  • TypeScript确保类型安全
  • Pinia进行状态管理
  • Element Plus UI组件
  • Vite构建工具

后端:

  • Go 1.24.2+ 确保高性能
  • Gin Web框架
  • gRPC内部通信
  • MySQL持久化存储
  • Redis缓存和会话

自动化设置的快速部署:

Terminal window
# 一行命令安装(需要root/sudo权限)
curl -sfL https://get.mcpcan.com | sh -
# 或使用GitHub脚本
wget -qO- https://raw.githubusercontent.com/Kymo-MCP/mcpcan/main/install.sh | bash

这会自动安装:

  • k3s(轻量级Kubernetes)
  • ingress-nginx
  • Helm 3
  • MCPCAN组件

对于现有Kubernetes集群或自定义配置:

Terminal window
# 添加MCPCAN Helm仓库
helm repo add mcpcan https://charts.mcpcan.com
helm repo update
# 使用自定义值安装
helm install mcpcan mcpcan/mcpcan \
--namespace mcpcan \
--create-namespace \
--set domain=mcp.yourdomain.com \
--set tls.enabled=true

关键配置参数:

参数说明默认值
domain平台访问域名localhost
tls.enabled启用HTTPSfalse
mysql.storageSize数据库存储10Gi
redis.enabled启用Redis缓存true

将MCPCAN部署为所有AI助手工具的集中网关:

  1. 通过市场注册MCP服务
  2. 为每个团队配置访问令牌
  3. 监控使用情况和性能
  4. 根据需求扩展服务

为开发人员提供隔离的MCP环境:

  • 每个开发人员获得专用服务实例
  • 常用工具的共享服务池
  • 开发/预发布/生产环境分离

为多个客户运营MCP服务:

  • 通过命名空间实现租户隔离
  • 每租户资源配额
  • 独立的计费和监控
  1. 启用TLS:生产环境始终使用HTTPS
  2. 轮换Token:实施定期Token轮换
  3. 网络策略:限制服务间通信
  4. 全面审计:启用完整日志记录
  1. 资源限制:设置适当的CPU/内存限制
  2. 水平扩展:使用HPA自动扩展
  3. 缓存:利用Redis处理频繁请求
  4. 连接池:优化数据库连接
  1. GitOps:在Git中存储配置
  2. 监控:为关键指标设置告警
  3. 备份:定期数据库备份
  4. 文档:维护运维手册
功能MCPCAN手动Docker云函数
容器隔离
协议转换
集中认证部分
可视化仪表板因平台而异
Kubernetes原生
开源

服务无法启动

Terminal window
# 检查Pod状态
kubectl get pods -n mcpcan
# 查看Pod日志
kubectl logs -n mcpcan <pod-name>

Token验证失败

  • 验证Token格式与服务配置匹配
  • 检查Token过期时间
  • 查看审计日志获取详情

高延迟

  • 检查资源利用率
  • 审查网络策略
  • 启用Redis缓存

MCPCAN代表了MCP服务管理的重大进步,为MCP生态系统带来了企业级功能。无论您是管理几个MCP工具的独立开发者,还是运营数十个服务的企业团队,MCPCAN都提供了可靠、安全且可扩展的MCP部署所需的基础设施。

该平台结合容器隔离、协议灵活性和内置安全性,是希望标准化MCP运营同时保持对基础设施控制的团队的绝佳选择。


许可证:Apache License 2.0

项目仓库https://github.com/Kymo-MCP/mcpcan

Google Code Wiki:与代码同步演进的 AI 智能文档平台

Google Code Wiki:与代码同步演进的 AI 智能文档平台

Section titled “Google Code Wiki:与代码同步演进的 AI 智能文档平台”

2025 年 11 月,Google 推出了 Code Wiki,这是一个革命性的平台,旨在解决软件开发中最持久的挑战之一:保持文档与代码的同步。Code Wiki 由 Gemini AI 驱动,能够为任何代码仓库自动生成和维护全面、始终最新的文档。

Code Wiki 是一个专为智能体时代软件开发设计的新平台。它为代码仓库维护持续更新的结构化 Wiki,在每次代码变更后自动重新生成文档。

“面向智能体时代的开发新视角。Gemini 生成的文档,始终保持最新。“

阅读和理解现有代码是软件开发中最大、最昂贵的瓶颈之一。传统文档存在以下问题:

  • 快速过时 - 代码更新速度远快于文档更新
  • 缺乏上下文 - 静态文档无法解释组件之间的关系
  • 需要人工维护 - 工程师花时间写文档而非编码
  • 不一致性 - 不同作者、不同风格、覆盖不完整

Code Wiki 通过自动化、AI 驱动的文档生成解决了这些问题。

Code Wiki 扫描整个代码仓库并自动生成结构化文档:

  • 全代码库分析 - 理解所有文件、函数及其关系
  • 每次提交后重新生成 - 文档随每次变更自动更新
  • 架构图 - 自动生成并保持最新的可视化表示
  • 类图和序列图 - 复杂系统的技术可视化

每个 Code Wiki 页面都包含智能聊天助手:

  • 上下文感知问答 - 针对您的代码库提出具体问题
  • 完整 Wiki 知识 - 聊天使用完整、最新的文档作为上下文
  • 直接代码链接 - 回答包含指向相关源文件的超链接
  • 自然语言查询 - 用自然语言提问

示例交互:

  • “认证模块是如何工作的?”
  • “哪些函数调用了数据库连接池?”
  • “解释一下支付处理系统的数据流”

每个文档元素都直接连接到源代码:

  • 符号链接 - 点击任何函数、类或变量查看其定义
  • 交叉引用 - 无缝导航相关概念
  • 文件位置 - 准确知道代码在哪里
  • 定义链 - 从高层概念追溯到实现细节

Code Wiki 与 Google 的 NotebookLM 集成,提供增强文档功能:

  • 视频讲解 - 自动生成代码库视频导览
  • 交互式演示 - 带多媒体的架构概览
  • 音频摘要 - 收听代码讲解(即将推出)

公开预览版(现已可用):

  1. 访问 codewiki.google
  2. 搜索任何公开的开源仓库
  3. Code Wiki 自动生成文档

支持的仓库:

  • GitHub 公开仓库
  • GitLab 公开项目
  • Bitbucket 公开仓库

Code Wiki 展示了热门项目的文档:

仓库Star 数描述
gemini-cli81.5k终端开源 AI 智能体
go130.7kGo 编程语言
flutter173.7k构建精美移动应用
kubernetes118.4k容器编排平台
react240.3kWeb 和原生 UI 库
python-sdk19.8kMCP Python SDK

针对私有仓库,Google 正在开发 Gemini CLI 扩展:

  • 本地部署 - 敏感代码保留在您的基础设施上
  • 企业级安全 - 满足合规要求
  • 遗留代码库支持 - 非常适合无文档系统
  • 加入等候名单 - 在 codewiki.google

Code Wiki 大幅加速开发者入职:

使用 Code Wiki 前:

  • 2-4 周理解代码库结构
  • 不断向资深开发者提问
  • 阅读过时的文档
  • 试错式探索

使用 Code Wiki 后:

  • 几分钟内理解系统架构
  • 提出具体问题,获得准确答案
  • 通过聊天助手自助探索
  • 第一天就能做出有意义的贡献

适用于继承无文档系统的团队:

  • 自动文档 - 为任何代码库生成文档
  • 架构发现 - 了解组件如何交互
  • 依赖映射 - 理解什么连接什么
  • 知识保留 - 捕获机构知识

简化审查流程:

  • 快速获取上下文 - 审查者更快理解变更
  • 影响分析 - 查看与修改区域相连的代码
  • 一致的理解 - 每个人阅读相同的文档
  • 安全审计 - 更快的代码库理解

评估和学习开源项目:

  • 快速评估 - 采用前了解项目
  • 学习工具 - 了解主要项目的结构
  • 贡献准备 - 贡献前理解代码库
  • 模式发现 - 学习架构方法
1. 拉取最新变更
2. 查看 Code Wiki 更新的文档
3. 询问聊天:"本周认证模块有什么变化?"
4. 查看相关架构图
5. 带着完整上下文开始编码
1. 询问聊天:"我应该在哪里添加新的支付提供商?"
2. 通过超链接导航到相关组件
3. 查看类似模块中的现有模式
4. 按照文档约定实现
5. 文档随您的提交自动更新
1. 在生产环境遇到 bug
2. 询问聊天:"什么调用了 processOrder 函数?"
3. 导航依赖链
4. 通过文档识别根本原因
5. 带着完整上下文修复 bug
  1. 使用具体问题 - “X 是如何工作的?” 比 “告诉我关于代码的信息” 更好
  2. 跟随超链接 - 从文档导航到代码进行验证
  3. 定期刷新 - 团队提交后检查更新的文档
  4. 结合 IDE - 在编辑器旁边打开 Code Wiki
  1. 分享 Wiki 链接 - 将团队成员指向相关部分
  2. 标准化入职 - 在新员工清单中包含 Code Wiki
  3. 在审查中引用 - 在 PR 讨论中使用 Wiki 链接
  4. 监控覆盖率 - 识别需要更好文档的区域
功能Code WikiReadMeDocusaurusGitBook
自动生成是(Gemini)手动手动手动
实时更新每次提交手动手动手动
AI 聊天助手
图表生成自动手动手动手动
代码链接自动手动手动手动
需要设置配置完整设置配置
私有仓库即将推出

对比手动文档:

  • 无维护开销
  • 始终最新
  • 格式一致
  • 完整覆盖

对比代码注释:

  • 更高层次的理解
  • 跨文件关系
  • 可视化图表
  • 可搜索和导航

对比 README 文件:

  • 全面深入
  • 交互式聊天
  • 自动更新
  • 架构视图

Q: Code Wiki 免费吗? A: 开源仓库的公开预览版免费。私有仓库定价待定。

Q: 文档更新有多快? A: 文档在每次提交后重新生成,通常在几分钟内完成。

Q: 我可以自定义生成的文档吗? A: 目前文档完全自动化。自定义模板可能稍后推出。

Q: Code Wiki 支持所有编程语言吗? A: Gemini AI 支持大多数流行语言。小众语言的质量可能有所不同。

Q: 我的代码会发送到 Google 服务器吗? A: 对于公开仓库,是的。针对私有仓库的 CLI 扩展将支持本地处理。

Q: 我可以导出文档吗? A: 导出功能在路线图上。目前文档存在于 codewiki.google。

文档未显示:

  • 确认仓库是公开的
  • 检查仓库 URL 是否正确
  • 等待几分钟进行初始生成

聊天无响应:

  • 刷新页面
  • 尝试更具体的问题
  • 检查网络连接

图表缺失:

  • 复杂仓库可能需要更长处理时间
  • 某些架构模式可能无法很好地可视化
  • 几分钟后重新检查

Google Code Wiki 代表了我们处理代码文档方式的根本转变。通过利用 Gemini AI 自动生成和维护全面、始终最新的文档,Code Wiki 消除了软件开发中最持久的痛点之一。

对于开源项目,公开预览版现已可用。对于拥有私有代码库的企业团队,即将推出的 Gemini CLI 扩展承诺提供相同的优势,同时支持本地部署和安全合规。

无论您是在入职新开发人员、探索陌生的代码库,还是只是想了解自己的代码如何工作,Code Wiki 都为您的开发之旅提供了一个智能的、始终更新的伴侣。


立即在 codewiki.google 体验 Code Wiki,感受代码文档的未来。

Auto-Claude: 自主多会话AI编码,让你的开发效率提升10倍

Auto-Claude 是由 AndyMik90 创建的革命性桌面应用程序,它彻底改变了开发者与AI编码助手的交互方式。与传统的单会话AI编码工具不同,Auto-Claude 允许你同时运行多达12个并行的 Claude Code 终端,每个终端处理不同的任务,同时通过 git 工作树保持完全隔离。

无论你是刚入门的”氛围编码者”还是管理复杂项目的资深开发者,Auto-Claude 都能满足你的需求,通过自主代理为你规划、编码和验证。

  • 10倍开发效率:同时运行多个构建任务,保持代码质量
  • 12个并行代理终端:清晰的布局、智能命名和一键上下文注入
  • Git工作树隔离:所有工作安全进行,不干扰主分支
  • 自验证QA:内置代理在你审查前自行检查工作
  • 跨会话记忆:代理通过 FalkorDB 图数据库跨会话记住洞察
  • AI合并解决:合并回主分支时智能解决冲突
  • 跨平台支持:桌面应用支持 Mac、Windows 和 Linux

安装 Auto-Claude 之前,请确保具备以下组件:

要求版本用途
Node.js18+桌面UI运行时
Python3.10+后端代理执行
Docker Desktop最新版记忆层(FalkorDB)
Claude Code CLI最新版AI编码引擎
Claude订阅Pro或MaxClaude Code访问必需
Git仓库-工作树隔离

Auto-Claude 需要 git 仓库来创建隔离的工作树以实现安全的并行开发:

Terminal window
cd your-project
git init
git add .
git commit -m "Initial commit"

Git 工作树允许你同时处理多个功能而不产生冲突,在准备合并之前保持主分支的整洁。

Terminal window
git clone https://github.com/AndyMik90/Auto-Claude.git
cd auto-claude
Terminal window
# 使用 uv(推荐)
uv venv && uv pip install -r requirements.txt
# 或使用标准 Python
python3 -m venv .venv && source .venv/bin/activate && pip install -r requirements.txt

记忆层使用 FalkorDB 提供跨会话上下文保持:

Terminal window
# 确保 Docker Desktop 正在运行
docker-compose up -d falkordb
Terminal window
cd auto-claude-ui
# 安装依赖(推荐 pnpm)
pnpm install
# 或: npm install
# 构建并启动应用
pnpm run build && pnpm run start
# 或: npm run build && npm run start

如果安装时遇到 node-gyp 错误:

  1. 下载 Visual Studio Build Tools 2022
  2. 选择”使用C++的桌面开发”工作负载
  3. 添加”MSVC v143 - VS 2022 C++ x64/x86 Spectre缓解库”
  4. 重启终端并再次运行 npm install

规划任务,让AI处理规划、编码和验证。在可视化界面中跟踪从”规划中”到”已完成”的进度,同时代理自主工作。

生成多达12个AI驱动的终端进行实际编码:

  • 一键注入任务上下文
  • 从项目中引用文件
  • 跨多个会话快速工作
  • 团队可连接多个 Claude Code 订阅

阶段1:规格创建(3-8个阶段)

  • 发现 — 分析项目结构和技术栈
  • 需求 — 通过交互式对话收集需求
  • 研究 — 根据真实文档验证外部集成
  • 上下文发现 — 在代码库中查找相关文件
  • 规格编写 — 创建全面的规格文档
  • 规格评审 — 使用扩展思考自我批评
  • 规划 — 将工作分解为带依赖的子任务
  • 验证 — 确保所有输出有效

阶段2:实现

  • 规划代理创建基于子任务的实现计划
  • 编码代理逐一实现子任务并验证
  • QA审查者验证所有验收标准
  • QA修复者在自愈循环中修复问题(最多50次迭代)

阶段3:合并

  • 冲突检测识别修改的文件
  • 三层解决:Git自动合并 → 仅冲突AI → 全文件AI
  • 多文件并行合并
  • 最终确定前暂存供审查

记忆层结合图节点与语义搜索:

配置LLM嵌入说明
OpenAIOpenAIOpenAI最简单 - 单一API密钥
Anthropic + VoyageAnthropicVoyage AI高质量
Google AIGeminiGoogle快速推理
OllamaOllamaOllama完全离线
AzureAzure OpenAIAzure OpenAI企业级

三层防御保护你的代码安全:

  • 操作系统沙箱:Bash命令在隔离环境中运行
  • 文件系统限制:操作仅限于项目目录
  • 命令白名单:仅允许基于项目技术栈的批准命令

运行4-6个并行代理处理不同功能:

终端1: 用户认证模块
终端2: 仪表盘UI组件
终端3: API端点
终端4: 数据库迁移
终端5: 单元测试
终端6: 文档编写

将不同的bug报告分配给独立代理:

终端1-3: 关键bug
终端4-6: 中等优先级问题
终端7-9: 低优先级修复
终端10-12: 代码质量改进

让代理处理不同的现代化任务:

  • 重构遗留代码
  • 更新依赖项
  • 添加TypeScript类型
  • 提高测试覆盖率

高级用户可以连接多个 Claude Code 订阅:

  • 每个团队成员运行自己的代理集
  • 共享记忆层保留项目上下文
  • AI处理跨分支的合并冲突
  1. 从清晰的规格开始:提供详细的任务描述以获得更好的代理性能

  2. 使用Git工作树:让 Auto-Claude 管理隔离 - 构建期间切勿直接在main上工作

  3. 审查QA报告:在接受更改之前检查自验证结果

  4. 利用记忆层:启用 FalkorDB 以获得更好的跨会话上下文

  5. 批量处理相似任务:将相关工作分组以最大化并行效率

  6. 监控资源使用:12个并行代理可能会消耗大量资源 - 根据硬件情况调整

功能Auto-ClaudeClaude CodeCursorAider
并行会话最多12个111
Git工作树隔离
自验证QA
跨会话记忆✅ (FalkorDB)
AI合并解决
桌面UICLICLI
看板
  1. 需要Claude订阅:你需要 Claude Pro 或 Max 才能访问 Claude Code
  2. 资源密集:运行12个并行代理需要大量CPU/RAM
  3. Docker依赖:记忆层需要运行 Docker Desktop
  4. AGPL-3.0许可证:商业使用需要开源你的修改

问:Auto-Claude 与普通 Claude Code 有何不同? 答:Auto-Claude 在 Claude Code 基础上增加了并行执行、git工作树隔离、自验证QA和跨会话记忆。它是生产力倍增器,而非替代品。

问:我可以在现有项目中使用吗? 答:可以!只需确保你的项目是git仓库。Auto-Claude 创建隔离的工作树,不会修改你的主分支。

问:应该运行多少个代理? 答:从2-4个开始,根据硬件情况扩展。每个代理单独消耗 Claude Code API 额度。

问:可以离线工作吗? 答:记忆层支持 Ollama 进行完全离线操作,但 Claude Code 需要互联网连接。

问:如果代理卡住了怎么办? 答:QA修复者在自愈循环中运行最多50次迭代。如果仍然失败,你可以手动审查和干预。


Auto-Claude 代表了AI辅助开发的下一次进化 - 将单会话编码转变为并行的自主工作流,通过自验证在保持代码质量的同时成倍提升开发者生产力。

让Claude Code更加自主工作:VS Code扩展、检查点与Agent SDK完全指南

Anthropic发布了多项重大升级,从根本上改变了开发者与AI驱动开发工具的交互方式。这些更新包括原生VS Code扩展、终端界面2.0版本,以及最重要的——用于自主操作的检查点系统。在Claude Sonnet 4.5的驱动下,Claude Code现在能够以前所未有的信心和控制力处理更长、更复杂的开发任务。

本文将全面介绍这些新的自主化功能,涵盖安装配置、最佳实践和实际工作流程示例。

原生VS Code扩展将Claude Code直接带入你的IDE,提供多项强大功能:

  • 实时变更可视化:通过专用侧边栏面板和内联差异对比实时查看Claude的修改
  • 图形化体验:为偏好IDE而非终端的开发者提供更丰富的可视化Claude Code体验
  • 无缝集成:在现有VS Code工作流中运行,无需上下文切换

安装方式:从VS Code扩展市场下载

刷新后的终端界面包含:

  • 改进的状态可见性:更好地反馈Claude当前操作的视觉信息
  • 可搜索的提示历史:使用Ctrl+r搜索和复用之前的提示
  • 流畅的用户体验:更便捷的导航和命令执行

检查点系统是自主开发的革命性变化:

  • 自动状态保存:在每次修改前自动保存代码状态
  • 即时回退:按两次Esc或使用/rewind命令返回之前的版本
  • 选择性恢复:可选择恢复代码、对话或两者同时恢复
  • 多级撤销:不仅仅是一级撤销——每次修改都会保留检查点

最佳实践:将检查点与版本控制(git)结合使用以获得最大安全性。

子代理可以委托专门任务,实现并行开发工作流:

# 示例:主代理生成专门的子代理
from claude_agent_sdk import query, ClaudeAgentOptions, AgentDefinition
async for message in query(
prompt="构建一个带测试的全栈功能",
options=ClaudeAgentOptions(
allowed_tools=["Read", "Write", "Edit", "Bash", "Task"],
agents={
"backend-dev": AgentDefinition(
description="后端API开发者",
prompt="按照最佳实践构建REST API",
tools=["Read", "Write", "Edit", "Bash"]
),
"frontend-dev": AgentDefinition(
description="前端开发者",
prompt="使用TypeScript构建React组件",
tools=["Read", "Write", "Edit", "Bash"]
),
"test-engineer": AgentDefinition(
description="测试自动化工程师",
prompt="编写全面的测试覆盖",
tools=["Read", "Write", "Bash"]
)
}
)
):
print(message)

钩子在开发生命周期的特定节点触发操作:

  • PostToolUse:代码修改后运行测试
  • PreToolUse:提交前进行代码检查
  • SessionStart/End:初始化或清理资源
  • UserPromptSubmit:验证或转换用户输入
# 示例:文件编辑后自动运行测试
async def run_tests_after_edit(input_data, tool_use_id, context):
file_path = input_data.get('tool_input', {}).get('file_path', '')
if file_path.endswith('.py'):
# 为Python文件运行pytest
return {"command": "pytest", "args": [file_path]}
return {}
options = ClaudeAgentOptions(
hooks={
"PostToolUse": [HookMatcher(matcher="Edit", hooks=[run_tests_after_edit])]
}
)

保持长时间运行的进程活跃而不阻塞进度:

  • 开发服务器持续运行
  • 构建监视器监控变更
  • 数据库迁移在后台运行
  • 编译任务异步执行
  • Node.js:18或更高版本
  • Python:3.10或更高版本(Python SDK需要)
  • 操作系统:macOS、Linux或带WSL的Windows

macOS/Linux/WSL:

Terminal window
curl -fsSL https://claude.ai/install.sh | bash

Homebrew(macOS):

Terminal window
brew install --cask claude-code

npm:

Terminal window
npm install -g @anthropic-ai/claude-code

TypeScript/Node.js:

Terminal window
npm install @anthropic-ai/claude-agent-sdk

Python:

Terminal window
pip install claude-agent-sdk
Terminal window
export ANTHROPIC_API_KEY=your-api-key

Anthropic控制台获取密钥。

备选提供商:

  • Amazon BedrockCLAUDE_CODE_USE_BEDROCK=1
  • Google Vertex AICLAUDE_CODE_USE_VERTEX=1
  • Microsoft FoundryCLAUDE_CODE_USE_FOUNDRY=1

重构大型代码库时,检查点+子代理协同工作:

  1. 开始前创建检查点
  2. 为不同模块生成子代理
  3. 每个子代理重构其分配的区域
  4. 钩子在每次修改后运行测试
  5. 如果测试失败,回退到检查点
Terminal window
# 使用测试驱动开发工作流启动Claude Code
claude --with-hooks "每次编辑后运行测试"
# Claude将会:
# 1. 首先编写失败的测试
# 2. 实现代码使测试通过
# 3. 每次编辑后自动运行测试
# 4. 在每个绿色状态创建检查点
# 使用并行代理的全栈API开发
agents = {
"api-designer": AgentDefinition(
description="OpenAPI规范编写者",
prompt="按照OpenAPI 3.0设计RESTful API",
tools=["Read", "Write"]
),
"api-implementer": AgentDefinition(
description="后端实现",
prompt="根据规范实现FastAPI端点",
tools=["Read", "Write", "Edit", "Bash"]
),
"api-tester": AgentDefinition(
description="API测试自动化",
prompt="为所有端点编写pytest测试",
tools=["Read", "Write", "Bash"]
)
}
Terminal window
# 使用Claude审查夜间的PR
claude "审查所有开放的PR,总结变更,识别潜在问题"
Terminal window
# 使用检查点进行安全调试
claude "调试认证模块 - 每次修改前创建检查点"
Terminal window
# 使用钩子自动化代码清理
claude "清理TODO注释,格式化代码,运行代码检查" --auto-commit
  1. 检查点vs Git:检查点只跟踪Claude的编辑,不包括用户编辑或bash命令。始终使用git进行版本控制。

  2. 子代理权限:谨慎授予子代理工具权限。使用最小权限原则。

  3. 后台任务:监控后台任务以防止资源耗尽。

问:可以在没有git的情况下使用检查点吗? 答:可以,但不推荐。检查点是版本控制的补充,不是替代。

问:可以并行运行多少个子代理? 答:没有硬性限制,但存在资源约束。建议从2-3个开始,根据系统情况扩展。

问:钩子会减慢开发速度吗? 答:开销很小。钩子在可能的情况下异步运行。

问:可以使用Claude Code配合本地模型吗? 答:Agent SDK支持Bedrock、Vertex AI和Foundry。本地模型支持取决于提供商兼容性。

问题解决方案
检查点未保存检查磁盘空间和权限
子代理超时增加选项中的超时时间或简化任务
钩子未触发验证匹配器正则表达式是否匹配工具名称
API密钥无效从控制台重新生成密钥
功能Claude CodeGitHub CopilotCursorCody
检查点✅ 内置
子代理✅ 原生
钩子✅ 丰富有限有限
VS Code扩展✅ Beta✅ 稳定N/A
终端CLI✅ 完整
Agent SDK✅ Python/TS
  • Claude Code:最适合具有完全控制的自主复杂开发
  • GitHub Copilot:最适合内联代码建议
  • Cursor:最适合AI优先的IDE体验
  • Cody:最适合企业代码理解

Claude Code的自主化升级代表了AI辅助开发的重大飞跃。检查点、子代理、钩子和后台任务的组合创造了一个开发环境,让你可以自信地委托复杂任务,同时保持完全控制。无论你是在重构遗留代码库、构建新功能还是探索实验性方法,这些工具都提供了安全网和并行处理能力,让你比以往任何时候都更高效地工作。

建议从VS Code扩展开始,获得更平缓的学习曲线,然后逐步使用Agent SDK构建针对你特定工作流的生产级自主代理。

Fabric: 用 AI 增强人类能力的开源框架

Fabric: 用 AI 增强人类能力的开源框架

Section titled “Fabric: 用 AI 增强人类能力的开源框架”

在快速发展的 AI 工具领域,Fabric 作为一个革命性的开源框架脱颖而出,旨在弥合 AI 能力与人类整合之间的鸿沟。由安全研究员和 AI 爱好者 Daniel Miessler 创建,Fabric 解决了一个根本性问题:AI 不存在能力问题——它存在的是整合问题。

Fabric 是一个开源框架,用于组织和管理 AI 提示词(称为 Patterns/模式),采用模块化、可复用的系统架构。与分散在各种工具和平台上的提示词不同,Fabric 提供了一种集中式、命令行优先的方法来收集、组织和执行 AI 解决方案。

“AI 不是一个事物;它是事物的放大器。而那个事物就是人类的创造力。”

Fabric 的哲学核心是将复杂问题分解为可管理的组件,并系统地将 AI 应用于每个部分。这种方法将 AI 从神秘的黑盒转变为实用的日常工具。

模式(Patterns)是 Fabric 的核心构建块。每个模式都是为特定现实世界任务精心设计的提示词:

  • extract_wisdom:从 YouTube 视频和播客中提取关键见解
  • summarize:创建任何内容的简明摘要
  • analyze_claims:评估声明的准确性和有效性
  • write_essay:用你自己的声音生成文章
  • create_coding_feature:生成带上下文的代码功能
  • improve_writing:提升写作质量和清晰度

内置 150+ 模式,Fabric 涵盖了从内容创作到代码分析的多样化用例。

Fabric 支持令人印象深刻的 AI 提供商阵列:

  • OpenAI (GPT-4, GPT-4o, o1, o3)
  • Anthropic (Claude 4, Claude 4.5 Opus)
  • Google (Gemini)
  • 本地模型 via Ollama
  • Azure OpenAI
  • Amazon Bedrock
  • Perplexity AI
  • Venice AI(隐私优先)
  • Together AI
  • 以及更多…

Fabric 专为命令行构建,非常适合开发者和高级用户:

Terminal window
# 从剪贴板总结内容
pbpaste | fabric --pattern summarize
# 从 YouTube 视频提取智慧
fabric -y "https://youtube.com/watch?v=..." --pattern extract_wisdom
# 抓取并分析网站
fabric -u https://example.com -p analyze_claims
# 实时流式输出结果
cat article.txt | fabric --stream --pattern summarize

Fabric 支持持久化上下文和会话:

  • 上下文:添加到所有查询的预创建背景信息
  • 会话:跨多次交互维护对话历史
  • 变量:使用 {{variable}} 语法动态自定义模式

Fabric 包含内置的 REST API 服务器,用于与其他应用程序集成:

Terminal window
fabric --serve --address :8080

功能包括:

  • 流式聊天补全
  • 模式管理(增删改查)
  • YouTube 字幕提取
  • Swagger/OpenAPI 文档

为偏好可视化界面的用户提供 GUI 替代方案,可通过 Web 浏览器访问所有 Fabric 功能。

安装 Fabric 之前,请确保具备:

  • Go 1.22+(用于源码安装)
  • 首选 AI 提供商的 API 密钥(OpenAI、Anthropic 等)
  • yt-dlp(可选,用于 YouTube 字幕提取)
  • LaTeX 发行版(可选,用于 to_pdf 生成 PDF)

Unix/Linux/macOS:

Terminal window
curl -fsSL https://raw.githubusercontent.com/danielmiessler/fabric/main/scripts/installer/install.sh | bash

Windows PowerShell:

Terminal window
iwr -useb https://raw.githubusercontent.com/danielmiessler/fabric/main/scripts/installer/install.ps1 | iex

macOS (Homebrew):

Terminal window
brew install fabric-ai
alias fabric='fabric-ai' # 添加到 shell 配置

Arch Linux (AUR):

Terminal window
yay -S fabric-ai

Windows (Winget):

Terminal window
winget install danielmiessler.Fabric
Terminal window
go install github.com/danielmiessler/fabric/cmd/fabric@latest
Terminal window
# 使用 Docker 运行
docker run --rm -it kayvan/fabric:latest --version
# 配置设置
mkdir -p $HOME/.fabric-config
docker run --rm -it -v $HOME/.fabric-config:/root/.config/fabric kayvan/fabric:latest --setup

安装后,运行设置来配置 API 密钥:

Terminal window
fabric --setup

添加到 shell 配置文件(~/.bashrc~/.zshrc):

Terminal window
# Intel 系统
export GOROOT=/usr/local/go
export GOPATH=$HOME/go
export PATH=$GOPATH/bin:$GOROOT/bin:$HOME/.local/bin:$PATH
# Apple Silicon
export GOROOT=$(brew --prefix go)/libexec
export GOPATH=$HOME/go
export PATH=$GOPATH/bin:$GOROOT/bin:$HOME/.local/bin:$PATH

为所有模式添加便捷别名:

Terminal window
# 添加到 ~/.zshrc 或 ~/.bashrc
for pattern_file in $HOME/.config/fabric/patterns/*; do
pattern_name="$(basename "$pattern_file")"
alias "$pattern_name"="fabric --pattern $pattern_name"
done
Terminal window
# 研究并总结多个来源
fabric -u https://article1.com -p summarize > research.md
fabric -u https://article2.com -p summarize >> research.md
# 从研究生成文章
cat research.md | fabric -p write_essay -o essay.md
# 改进写作
cat essay.md | fabric -p improve_writing -o final_essay.md
Terminal window
# 从教育视频提取见解
fabric -y "https://youtube.com/watch?v=..." -p extract_wisdom -o notes.md
# 创建学习材料
cat notes.md | fabric -p create_summary -o study_guide.md
Terminal window
# 分析代码问题
cat src/main.go | fabric -p analyze_code
# 生成文档
code_helper ./src | fabric -p create_coding_feature -o feature_spec.md
Terminal window
# 分析安全声明
cat security_report.txt | fabric -p analyze_claims
# 创建威胁模型
fabric -p create_threat_model < system_description.txt
Terminal window
# 早间邮件摘要
cat emails.txt | fabric -p summarize --stream
# 会议笔记提取
pbpaste | fabric -p extract_wisdom -o meeting_notes.md
# 快速研究
fabric -q "最新的 AI 趋势是什么?" -p summarize

创建不会在更新时被覆盖的私有模式:

Terminal window
# 在设置期间设置自定义模式目录
fabric --setup
# 选择 "Custom Patterns" 并输入路径(如 ~/my-patterns)
# 创建自定义模式
mkdir -p ~/my-patterns/my-analyzer
echo "You are an expert analyzer..." > ~/my-patterns/my-analyzer/system.md
# 使用自定义模式
fabric --pattern my-analyzer "analyze this"
功能FabricLangChainOpenAI APIChatGPT
CLI 优先
模式库150+框架
多模型仅 OpenAI仅 OpenAI
本地模型✅ (Ollama)
REST API
YouTube 集成
自定义提示词有限
会话管理

1. 安装后找不到命令:

Terminal window
# 确保 Go bin 在 PATH 中
export PATH=$GOPATH/bin:$PATH

2. API 密钥错误:

Terminal window
# 重新运行设置
fabric --setup

3. YouTube 字幕不工作:

Terminal window
# 安装 yt-dlp
pip install yt-dlp
# 或使用浏览器 cookies
fabric -y "URL" --yt-dlp-args="--cookies-from-browser chrome"

4. 找不到模式:

Terminal window
# 更新模式
fabric --updatepatterns

5. 模型不可用:

Terminal window
# 列出可用模型
fabric --listmodels
# 列出供应商
fabric --listvendors

问:Fabric 免费使用吗? 答:是的,Fabric 采用 MIT 许可证。但你需要 AI 提供商的 API 密钥,这可能产生费用。

问:没有网络可以使用 Fabric 吗? 答:可以,通过 Ollama 使用本地模型。

问:如何贡献模式? 答:向 Fabric 仓库 提交 PR,将你的模式放在 data/patterns 目录中。

问:Fabric 会存储我的数据吗? 答:Fabric 在本地处理数据。数据会根据你的配置发送到 AI 提供商。

问:可以在一个工作流中使用多个模型吗? 答:可以,你可以使用 shell 管道将不同模型的模式链接起来。

  • v1.4.350:交互式 API 文档,支持 Swagger/OpenAPI UI
  • v1.4.338:Abacus 供应商支持 Chat-LLM 模型
  • v1.4.334:Claude Opus 4.5 模型支持
  • v1.4.322:使用 Vis.js 的交互式 HTML 概念图
  • v1.4.309:全面国际化支持(9种语言)

Fabric 代表了我们与 AI 交互方式的范式转变。通过提供结构化、模块化且命令行友好的框架,它将 AI 从偶尔使用的工具转变为日常工作流程的集成部分。无论你是开发者、内容创作者、安全研究员还是知识工作者,Fabric 基于模式的方法都提供了一种强大的方式来用 AI 增强你的能力。

该项目的活跃开发、不断增长的社区和丰富的模式库使其成为任何认真利用 AI 的人的必备工具。从基础模式开始,探索社区贡献,最终创建你自己的模式——这就是通向真正增强人类生产力的道路。


本文在 AI 工具的辅助下研究和撰写,展示了 Fabric 所实现的整合方式。

Claude Scientific Skills:125+ 即用型 AI 驱动科学研究工作流

Claude Scientific Skills:125+ 即用型 AI 驱动科学研究工作流

Section titled “Claude Scientific Skills:125+ 即用型 AI 驱动科学研究工作流”

在 AI 辅助研究快速发展的时代,Claude Scientific Skills 作为一款革命性的工具包脱颖而出,它将 Claude 转变为强大的科学研究助手。由 K-Dense-AI 创建,这个包含 125+ 专业技能的综合集合使研究人员能够在多个科学领域利用 AI,无需从头编写复杂的提示词。

Claude Scientific Skills 是一个专为 Claude 设计的开源即用型科学技能集合。每个技能都是精心设计的提示词模板,引导 Claude 以精确性和领域专业知识执行特定的科学任务。

“只需几次点击,就能将您的 Claude 助手转变为专业的科学研究工具。“

  • 125+ 科学技能,涵盖多个研究领域
  • 26+ 科学数据库,集成数据访问
  • 54+ Python 包,推荐用于科学计算
  • 15+ 科学集成,连接行业平台
  • 20+ 实际工作流,配有详细示例文档

Claude Scientific Skills 横跨多个科学学科:

生物信息学与基因组学:

  • 序列分析与比对
  • 变异检测与注释
  • 基因表达分析
  • 通路富集研究

化学信息学与药物发现:

  • 分子性质预测
  • ADMET 分析
  • 化学相似性搜索
  • 化合物库设计

蛋白质组学与结构生物学:

  • 蛋白质结构预测
  • 结合位点分析
  • 翻译后修饰检测
  • 蛋白质-蛋白质相互作用网络

临床研究:

  • 患者队列分析
  • 生物标志物发现
  • 临床试验设计辅助
  • 生存分析工作流

医学影像:

  • 图像预处理流程
  • 特征提取工作流
  • 影像组学分析
  • 多模态图像融合

机器学习与 AI:

  • 模型选择指导
  • 超参数优化
  • 特征工程策略
  • 实验追踪工作流

通过技能直接访问 26+ 数据库:

类别数据库
文献OpenAlex, PubMed, Semantic Scholar
化学ChEMBL, PubChem, DrugBank
生物UniProt, Ensembl, COSMIC
临床ClinicalTrials.gov, PharmGKB
蛋白质PDB, AlphaFold DB
通路Reactome, KEGG

技能推荐并集成 54+ 科学 Python 包:

# 核心科学计算
numpy, scipy, pandas, scikit-learn
# 生物信息学
biopython, scanpy, pysam, pyranges
# 化学信息学
rdkit, openbabel, mordred
# 机器学习
pytorch, pytorch-lightning, transformers
# 可视化
matplotlib, seaborn, plotly

连接 15+ 科学平台:

  • Benchling - 实验室笔记和分子生物学
  • DNAnexus - 基因组数据分析
  • LatchBio - 生物信息学工作流
  • OMERO - 显微镜数据管理
  • Protocols.io - 方法共享
  • Weights & Biases - ML 实验追踪

最简单的安装方式:

  1. 打开 Claude Code
  2. 导航到市场
  3. 搜索 “K-Dense-AI Scientific Skills”
  4. 点击安装

Cursor 用户:

  1. 打开 Cursor 设置
  2. 进入 AI > Skills
  3. 添加 K-Dense-AI 仓库
  4. 启用所需技能

对于任何兼容 MCP 的客户端:

Terminal window
# 克隆仓库
git clone https://github.com/K-Dense-AI/claude-scientific-skills.git
# 进入技能目录
cd claude-scientific-skills
# 按照 MCP 客户端特定安装说明操作

安装后,配置您偏好的数据库和集成:

# 示例配置
databases:
pubmed:
api_key: YOUR_NCBI_API_KEY
chembl:
enabled: true
integrations:
wandb:
api_key: YOUR_WANDB_KEY
您:"我有一个目标蛋白(UniProt: P12345)。帮我找到潜在的候选药物。"
Claude(使用药物发现技能):
1. 从 UniProt 获取蛋白质信息
2. 从 ChEMBL 检索已知配体
3. 分析结合位点特征
4. 从 PubChem 建议类似化合物
5. 预测 ADMET 性质
6. 按类药性排名候选物
您:"解读这个变异:BRCA1 c.5266dupC"
Claude(使用临床遗传学技能):
1. 从 ClinVar 检索变异
2. 在 gnomAD 中检查人群频率
3. 分析功能影响预测
4. 审查文献证据
5. 提供 ACMG 分类
6. 生成临床报告
您:"分析这个 10x Genomics 数据集进行细胞类型鉴定"
Claude(使用 scRNA-seq 技能):
1. 指导质量控制步骤
2. 推荐标准化方法
3. 协助降维处理
4. 帮助聚类优化
5. 建议注释用的标记基因
6. 生成可视化代码
您:"分析蛋白质 A 和 B 之间的结合界面"
Claude(使用结构生物学技能):
1. 从 PDB/AlphaFold 检索结构
2. 识别界面残基
3. 计算结合能估计值
4. 分析保守性模式
5. 建议验证用的突变
6. 创建 PyMOL 可视化脚本
您:"找到 2023-2024 年所有关于 CRISPR 在癌症治疗中应用的论文"
Claude(使用文献挖掘技能):
1. 搜索 OpenAlex 和 PubMed
2. 按相关性和日期筛选
3. 提取关键发现
4. 识别研究趋势
5. 创建引用网络
6. 生成摘要报告
  • 为您的任务选择最具体的技能
  • 为复杂工作流组合多个技能
  • 在详细分析前先使用探索性技能
  • 确保数据格式符合技能要求
  • 分析前验证输入数据质量
  • 使用推荐的文件格式(FASTA、PDB、CSV)
  • 与多个数据库交叉引用结果
  • 通过实验验证计算预测
  • 记录假设和限制
  • 保存成功的提示词以供重用
  • 追踪参数选择和结果
  • 与团队成员分享工作流
功能Claude Scientific SkillsChatGPT 插件Perplexity Pro
科学技能125+ 专业通用通用
数据库集成26+ 数据库有限基于搜索
Python 集成54+ 包代码解释器有限
平台集成15+ 平台少量
自定义工作流有限
开源
离线可用

答: 确保 MCP 服务器配置正确,并重启 Claude Code。

答: 检查 API 密钥是否正确配置,数据库服务是否可访问。

答: 验证您的环境中是否安装了所需的包。

答: 按照仓库 templates/ 目录中的技能模板操作。

答: 是的,大多数技能可以离线工作。数据库查询需要互联网连接。

答: 该仓库积极维护,定期更新新的数据库和方法。

项目持续活跃开发,定期添加新内容:

  • 新量子计算技能 - Qiskit 量子化学集成
  • 增强的 ML 工作流 - PyTorch Lightning 支持
  • 临床试验工具 - ClinicalTrials.gov 深度集成
  • 改进的文档 - 20+ 详细工作流示例

Claude Scientific Skills 代表了 AI 辅助科学研究的重大进步。通过提供 125+ 专业技能,深度集成科学数据库、Python 生态系统和行业平台,它将 Claude 从通用助手转变为强大的研究伙伴。

无论您是分析基因组数据的生物信息学家、搜索候选药物的化学家、解读变异的临床医生,还是构建 ML 流程的数据科学家,Claude Scientific Skills 都能提供您所需的领域专业知识和工作流指导。

该项目对开源开发、积极维护和全面文档的承诺,使其成为任何希望在科学工作流中利用 AI 的研究人员的必备工具包。从单个技能开始,探索记录的工作流,发现 AI 如何加速您的研究。


PromptHub:开源本地优先的 AI 提示词管理工具

你是否还在笔记本、文档和聊天记录里到处翻找 AI 提示词?PromptHub 优雅地解决了这个问题 - 它让你像管理代码一样管理提示词,支持版本控制、变量模板和多模型测试,同时所有数据都存储在本地,最大程度保护你的隐私。

PromptHub 是由 legeling 开发的开源免费 AI 提示词管理工具。基于 Electron、React 和 TypeScript 构建,在 macOS、Windows 和 Linux 平台上提供现代化的桌面体验。

PromptHub 提供完整的提示词组织套件:

  • 创建、编辑和删除 - 完整的 CRUD 操作,界面直观
  • 文件夹和标签系统 - 使用层级文件夹和自定义标签组织提示词
  • 收藏功能 - 快速访问常用提示词
  • 全文搜索 - 支持搜索标题、描述和内容
  • 多种视图模式 - 卡片、画廊和列表视图,适应不同工作流

再也不会丢失好用的提示词:

  • 自动历史记录 - 每次编辑都自动保存
  • 版本对比 - 并排差异视图查看更改
  • 一键回滚 - 轻松恢复任意历史版本

让你的提示词动态且可复用:

请将以下 {{source_lang}} 文本翻译成 {{target_lang}}:
{{text}}

复制或测试时,PromptHub 会提示你填写变量,让模板可以无限复用。

跨不同 AI 模型测试你的提示词:

  • 支持 18+ 服务商 - OpenAI、Claude、Gemini、DeepSeek、通义千问等
  • 并行测试 - 同时比较多个模型的响应
  • 图像生成 - 支持 DALL-E 和 Stability AI
  • 结果持久化 - 保存每个提示词的测试结果

你的数据只属于你:

  • 本地优先存储 - 所有数据存储在本地 SQLite 数据库
  • 主密码保护 - 应用级安全保护
  • 私密文件夹 - 敏感提示词加密存储(Beta)
  • 完整备份/恢复 - 以 .phub.gz 格式导出所有内容
  • WebDAV 同步 - 可选择与 Nextcloud 等服务云同步

PromptHub 支持以下平台:

  • macOS - Intel 和 Apple Silicon (M1/M2/M3/M4)
  • Windows - x64 架构
  • Linux - x64 (AppImage 和 .deb 格式)

GitHub Releases 下载最新版本:

平台架构格式
Windowsx64.exe 安装包
macOSApple Silicon.dmg 镜像
macOSIntel.dmg 镜像
Linuxx64.AppImage / .deb

由于应用未签名,macOS 可能显示安全警告。在终端运行以下命令:

Terminal window
sudo xattr -rd com.apple.quarantine /Applications/PromptHub.app

或者前往系统设置 > 隐私与安全性 > 点击”仍要打开”。

Terminal window
# 克隆仓库
git clone https://github.com/legeling/PromptHub.git
cd PromptHub
# 安装依赖
pnpm install
# 开发模式
pnpm dev
# 构建应用
pnpm build

早间准备:

  1. 使用主密码打开 PromptHub
  2. 查看收藏夹快速访问常用提示词
  3. 使用搜索按上下文查找特定提示词

工作期间:

  1. 开发新提示词时创建保存
  2. 对重复任务使用变量模板
  3. 在最终确定前跨模型测试提示词
  4. 添加标签和分类便于日后检索

一天结束:

  1. 查看版本历史了解所有更改
  2. 同步到 WebDAV 进行备份
  3. 导出重要提示词用于分享
场景PromptHub 如何帮助
内容创作使用风格变量存储写作提示词
代码生成管理带语言/框架变量的编程模板
翻译工作模板提示词使用源/目标语言占位符
研究分析跨模型比较 AI 响应
客户支持标准化响应模板并支持个性化
  1. 尽早组织 - 在添加大量提示词前设置好文件夹结构
  2. 使用有意义的标签 - 如 生产环境实验性已废弃
  3. 模板变量 - 使用 {{variable}} 语法让提示词可复用
  4. 定期备份 - 启用 WebDAV 同步或手动导出
  5. 版本说明 - 做重大更改时添加描述

macOS 上应用无法启动:

  • 运行安装部分提到的 xattr 命令
  • 检查系统设置 > 隐私与安全性

数据库损坏:

  • 定期使用备份功能
  • 妥善保管 .phub.gz 备份文件
  • 必要时从备份恢复

AI 测试失败:

  • 验证 API 密钥是否正确
  • 检查 API 端点 URL
  • 确保模型名称与服务商规范匹配

WebDAV 同步问题:

  • 验证 WebDAV URL 路径正确
  • 启用自动同步前在设置中测试连接
  • 检查防火墙/代理设置

问:我的数据会发送到任何云服务吗? 答:不会,所有数据都存储在本地。WebDAV 同步是可选的,由用户控制。

问:我可以与同事分享提示词吗? 答:可以,以 .phub.gz 格式导出单个提示词或完整备份。

问:如果忘记主密码怎么办? 答:很遗憾,没有密码无法恢复加密数据。

问:离线可以使用吗? 答:提示词管理功能完全支持离线使用。只有 AI 测试需要网络。

功能PromptHubNotionPromptLayerSnipd
本地存储仅云端云端云端
版本控制内置有限
多模型测试
变量模板部分
免费免费增值付费免费增值
开源AGPL-3.0
桌面应用网页/App网页网页
离线模式完整有限

优势:

  • 本地优先存储确保完全隐私
  • 无订阅费用或使用限制
  • 免费开源包中包含完整功能
  • 跨平台桌面体验
  • 活跃开发,维护者响应迅速

注意事项:

  • 需要手动备份策略(或设置 WebDAV)
  • 无移动应用(仅桌面端)
  • AI 测试需要你自己的 API 密钥

PromptHub 使用现代技术构建:

类别技术
框架Electron 33
前端React 18 + TypeScript 5
样式TailwindCSS
状态管理Zustand
本地存储IndexedDB + SQLite
构建工具Vite + electron-builder

PromptHub 代表了一种深思熟虑的 AI 提示词管理方法 - 优先考虑隐私、功能性和用户体验,无需云依赖或订阅费用的负担。对于任何重视数据所有权的 AI 效率追求者,PromptHub 值得一试。

该项目正在积极维护,定期更新,社区活跃。无论你是内容创作者、开发者、研究人员,还是任何经常使用 AI 工具的人,PromptHub 都能为你的提示词混乱带来秩序。

如果觉得有用,请在 GitHub 上给它一个 Star!

Desktop Commander MCP: 让 Claude 成为你的终极 AI 开发搭档

Desktop Commander MCP: 让 Claude 成为你的终极 AI 开发搭档

Section titled “Desktop Commander MCP: 让 Claude 成为你的终极 AI 开发搭档”

想象一下,你的 AI 助手不仅能理解你的代码,还能执行命令、管理文件,并在整个操作系统范围内工作?Desktop Commander MCP 让这一切成为可能,将 Claude Desktop 转变为一个强大的自主开发伙伴,远超传统以 IDE 为中心的 AI 工具。

由 Eduard Ruzga (wonderwhy-er) 创建,Desktop Commander MCP 是一个 Model Context Protocol (MCP) 服务器,它将 Claude Desktop 与你的本地系统连接起来。凭借每周数千次的 npm 下载量和不断增长的开发者社区,它正迅速成为希望在不使用多种工具的情况下获得 AI 辅助开发的开发者的首选解决方案。

Desktop Commander 提供智能终端集成:

  • 智能进程检测 - 自动知道程序何时准备好接受输入
  • 交互式会话管理 - 维护长时间运行的会话(SSH、数据库、开发服务器)
  • 后台执行 - 支持超时的命令运行
  • 进程控制 - 列出、监控和终止进程
  • 完整的文件系统访问,带有智能权限控制
  • 原生 Excel 支持 (.xlsx, .xls, .xlsm) - 读取、写入、编辑、搜索
  • PDF 功能 - 提取文本、从 markdown 创建、修改现有 PDF
  • 精准代码编辑 - 使用搜索/替换块进行精确更改
  • 基于模式的替换,集成 vscode-ripgrep
  • URL 支持 - 直接从网络资源获取内容

无需保存文件即可执行代码:

"分析 sales.csv 并显示顶级客户" → Claude 在内存中运行 Python
"计算这个公式" → 即时 Node.js 执行

动态运行时配置:

  • 安全的命令阻止列表
  • Shell 偏好设置(bash、zsh、PowerShell)
  • 目录访问控制
  • 文件读写限制
  • Node.js(推荐 v16 或更高版本)
  • Claude Desktop 应用程序
  • 操作系统:macOS、Windows 或 Linux
Terminal window
npx @wonderwhy-er/desktop-commander@latest setup
Terminal window
curl -fsSL https://raw.githubusercontent.com/wonderwhy-er/DesktopCommanderMCP/refs/heads/main/install.sh | bash
Terminal window
# macOS/Linux
bash <(curl -fsSL https://raw.githubusercontent.com/wonderwhy-er/DesktopCommanderMCP/refs/heads/main/install-docker.sh)
# Windows PowerShell
iex ((New-Object System.Net.WebClient).DownloadString('https://raw.githubusercontent.com/wonderwhy-er/DesktopCommanderMCP/refs/heads/main/install-docker.ps1'))

添加到你的 claude_desktop_config.json

配置文件位置:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json
  • Linux: ~/.config/Claude/claude_desktop_config.json
{
"mcpServers": {
"desktop-commander": {
"command": "npx",
"args": ["-y", "@wonderwhy-er/desktop-commander@latest"]
}
}
}
"探索这个 React 项目并创建组件图"
"找到所有 API 端点并记录它们的参数"

与局限于单一工作区的 IDE 工具不同,带有 Desktop Commander 的 Claude 可以:

  • 同时跨多个代码库工作
  • 比较不同项目之间的实现
  • 将模式从一个项目复制到另一个项目
"为这个仓库设置 GitHub Actions"
"通过 SSH 检查我的服务器的磁盘空间"
"更新所有 npm 依赖并运行测试"
"分析这个 Excel 文件并创建摘要报告"
"解析这些 JSON 日志并找出错误模式"
"启动一个 Node.js REPL 并测试这个函数"
"连接到 PostgreSQL 并显示表结构"
  1. 使用专用配置聊天 - 在单独的对话中进行配置更改
  2. 设置特定的 allowedDirectories - 将文件系统访问限制在需要的路径
  3. 审查 blockedCommands - 防止危险命令执行
  4. 敏感工作考虑使用 Docker - 与主机系统完全隔离

edit_block 工具使用搜索/替换块进行精确编辑:

src/main.js
<<<<<<< SEARCH
console.log("old message");
=======
console.log("new message");
>>>>>>> REPLACE

专业提示:

  • 进行多次小编辑而不是大规模重写
  • 保持 fileWriteLineLimit 较小以鼓励高效行为
  • 使用模糊搜索日志调试匹配失败

对于长时间运行的操作:

  1. 使用 start_process 进行智能就绪检测
  2. 通过 interact_with_process 交互
  3. 使用 read_process_output 监控
  4. 使用 force_terminate 清理
功能Desktop CommanderCursorWindsurf
范围整个操作系统单个项目单个项目
文件读取完整文件分块分块
多项目✅ 是❌ 否❌ 否
终端控制✅ 交互式⚠️ 有限⚠️ 有限
成本模式Pro 订阅API tokensAPI tokens
Token 效率高效可能级联可能级联

来自社区的评价:

“这是救星!我同时付费使用 Claude + Cursor,总觉得有重复。这彻底解决了问题。”

“先用 Claude 保持理智,必要时再使用其他 IDE。”

“我能够完整比较新旧代码库,考虑代码更新,在几个小时内解决了用其他工具花了好几天的问题。“

  1. 目录限制可以被绕过 - 通过 allowedDirectories 的安全性不是绝对的
  2. 终端命令不受限制 - allowedDirectories 只影响文件操作
  3. 文件写入限制 - 默认每次写入 50 行以鼓励高效的 AI 行为

Claude 超时:

  • 确保 MCP 服务器正在运行
  • 检查配置 JSON 语法
  • 重启 Claude Desktop

命令失败:

  • 验证配置中的 shell 路径
  • 检查命令是否在 blockedCommands 中
  • 确保适当的权限

文件访问被拒绝:

  • 将路径添加到 allowedDirectories
  • 验证磁盘上的文件权限

用于故障排除:

Terminal window
npx @wonderwhy-er/desktop-commander@latest setup --debug

在端口 9229 上连接调试器到 Node.js 进程。

问:我需要 API 积分吗? 答:不需要。使用 Claude Desktop Pro 订阅($20/月),不是 API 调用。

问:会自动更新吗? 答:是的,通过 npx 或 Smithery 安装时,更新会在 Claude 重启时应用。

问:我的数据会被收集吗? 答:仅收集有限的匿名遥测数据。不收集文件内容或路径。可以选择退出。

问:我可以与其他 Claude 客户端一起使用吗? 答:专为 Claude Desktop 设计。社区可能有其他客户端的适配器。

Desktop Commander MCP 代表了 AI 辅助开发的范式转变。通过让 Claude 直接访问你的终端和文件系统,它将对话式 AI 转变为活跃的开发伙伴。无论你是在探索不熟悉的代码库、自动化 DevOps 任务还是构建新功能,Desktop Commander 都将所有开发工具放在一个智能聊天界面中。

以解决方案为中心的方法——在整个操作系统范围内工作而不是单一 IDE 工作区——加上基于订阅的定价成本效益,使其成为分散的、消耗 API token 的替代方案的有力竞争者。

准备好提升你的开发工作流了吗?安装 Desktop Commander,今天就体验 AI 辅助开发的未来。

Desktop Commander MCP:让 Claude 掌控终端与文件系统的 MCP 服务器

Desktop Commander MCP:让 Claude 掌控终端与文件系统的 MCP 服务器

Section titled “Desktop Commander MCP:让 Claude 掌控终端与文件系统的 MCP 服务器”

在快速发展的 AI 开发领域,Desktop Commander MCP 作为一款革命性的工具脱颖而出,它将 Claude Desktop 转变为强大的桌面自动化助手。与传统的 IDE 专注型工具不同,Desktop Commander 提供了一种以解决方案为中心的方法,可以与整个操作系统协同工作。

Desktop Commander MCP 是由 wonderwhy-er 创建的开源 MCP(模型上下文协议)服务器,它使 Claude 能够:

  • 执行终端命令并实时输出流
  • 搜索和管理文件系统
  • 使用差异化功能精准编辑文件
  • 读写 Excel、PDF 和各种数据文件
  • 在内存中运行代码,无需文件持久化

“处理代码和文本,运行进程并自动化任务——突破传统 AI 编辑器的限制。“

Desktop Commander 提供全面的终端管理能力:

Terminal window
# 支持超时配置的命令执行
# 长时间运行任务的后台执行
# 带输出流的交互式进程管理
# 持久连接的会话管理

功能包括:

  • 可配置超时的命令执行
  • 后台进程执行
  • 进程列表和终止
  • SSH、数据库和开发服务器的会话管理

Desktop Commander 的突出特点之一是原生文件处理:

Excel 支持 (.xlsx, .xls, .xlsm):

  • 读取、写入和编辑电子表格
  • 在 Excel 文件内搜索
  • 无需外部工具

PDF 支持:

  • 从 PDF 文档提取文本
  • 从 markdown 创建 PDF
  • 文档修改功能

数据分析:

  • 即时 CSV/JSON 文件分析
  • 无需设置即可快速数据探索
Terminal window
# 目录创建和列表
# 文件/目录移动
# 使用 vscode-ripgrep 进行递归内容搜索
# 负偏移文件读取(类似 Unix tail)
# 元数据获取

Desktop Commander 提供两种编辑方法:

  1. 精准替换 - 用于精确的手术式更改
  2. 完整文件重写 - 用于大规模修改

支持多文件和基于模式的替换,使重构变得高效。

无需文件持久化即可执行代码:

  • Python - 直接运行 Python 脚本
  • Node.js - 执行 JavaScript/TypeScript
  • R - 支持统计计算
  • 动态获取/设置配置值
  • 批量设置更新
  • 无需重启服务器即可生效
  • 自动记录所有工具调用
  • 10MB 日志轮转限制
  • 详细的时间戳和参数记录

选项 1:NPX(⭐ 推荐 - 自动更新)

Section titled “选项 1:NPX(⭐ 推荐 - 自动更新)”
Terminal window
npx @wonderwhy-er/desktop-commander@latest setup
# 调试模式
npx @wonderwhy-er/desktop-commander@latest setup --debug
Terminal window
curl -fsSL https://raw.githubusercontent.com/wonderwhy-er/DesktopCommanderMCP/refs/heads/main/install.sh | bash

访问 smithery.ai/server/@wonderwhy-er/desktop-commander

添加到 claude_desktop_config.json

{
"mcpServers": {
"desktop-commander": {
"command": "npx",
"args": ["-y", "@wonderwhy-er/desktop-commander@latest"]
}
}
}

配置文件位置:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json
  • Linux: ~/.config/Claude/claude_desktop_config.json
Terminal window
git clone https://github.com/wonderwhy-er/DesktopCommanderMCP.git
cd DesktopCommanderMCP
npm run setup

选项 6:Docker 🐳(无需 Node.js)

Section titled “选项 6:Docker 🐳(无需 Node.js)”
Terminal window
bash <(curl -fsSL https://raw.githubusercontent.com/wonderwhy-er/DesktopCommanderMCP/refs/heads/main/install-docker.sh)

Docker 配置:

{
"mcpServers": {
"desktop-commander-in-docker": {
"command": "docker",
"args": ["run", "-i", "--rm", "mcp/desktop-commander:latest"]
}
}
}
你: "修复我 Svelte 项目中的所有 TypeScript 错误"
Claude: [使用 Desktop Commander 运行 tsc,识别错误并应用修复]

真实用户反馈:

“我的 Svelte 5 项目在 23 个文件中有 76 个错误。使用 desktop-commander、sequentialthinking 和 tree-sitter 全部修复了。从来没有这么快用 AI 解决过类型错误!“

你: "分析这份 Excel 报告并创建摘要"
Claude: [原生读取 Excel 文件,处理数据,生成洞察]
你: "监控并重启故障服务"
Claude: [执行诊断命令,识别问题,应用修复]
你: "找到所有 API 端点并记录它们"
Claude: [使用 ripgrep 驱动的搜索定位和分析代码]

为增强安全性,使用 Docker 隔离:

  • 具有持久化开发状态的受控环境
  • 选择性文件夹访问,无需完全文件系统暴露
  • 安装的工具和配置在会话间持久化
你: "审查昨天的提交并总结更改"
Claude: [运行 git log,读取更改的文件,提供摘要]
你: "用新的 API 端点更新 README"
Claude: [读取现有文档,分析代码,应用精准编辑]
你: "连接开发数据库并导出用户统计"
Claude: [建立会话,运行查询,格式化输出]
你: "将这些下载的文件整理到合适的文件夹"
Claude: [分析文件类型,创建结构,移动文件]
  1. 使用 Docker 进行隔离 - 提供受控环境
  2. 配置命令黑名单 - 限制危险命令
  3. 设置目录权限 - 限制对特定文件夹的访问
  4. 审查审计日志 - 监控所有执行的命令
  5. 操作前备份 - 尤其是破坏性任务

Desktop Commander 提供:

  • 命令黑名单配置
  • 目录访问权限
  • 所有操作的审计日志
  • 遥测数据退出选项
功能Desktop CommanderMCP Filesystem ServerIDE 扩展
终端控制✅ 完整❌ 无有限
文件搜索✅ Ripgrep基础各异
Excel 支持✅ 原生❌ 无需要插件
PDF 支持✅ 原生❌ 无需要插件
差异编辑✅ 精准基础✅ 是
代码执行✅ 内存❌ 无各异
进程管理✅ 完整❌ 无有限
Docker 支持✅ 是❌ 否不适用
自动更新✅ 选项 1-4, 6手动通过商店
  • v0.1.40(5月20日) - 审计日志、改进的基于行操作、增强的 edit_block
  • 模糊搜索日志(5月5日) - 搜索操作的全面日志系统
  • 遥测退出(4月29日) - 基于配置的遥测控制
  • 更好的代码搜索(3月25日) - 增强的上下文感知结果
  • WSL 支持 - Windows 子系统 Linux 探索

答: 在配置中增加超时时间,或对长时间运行的任务使用后台执行。

答: 检查 Desktop Commander 配置中的目录访问权限。

答: 使用卷挂载(-v 标志)进行数据持久化。

答: 确保搜索路径在允许的目录内,并尝试调整搜索模式。

答: 对于选项 1-4 和 6,重启 Claude。对于选项 5,运行 git pull && npm run setup

Terminal window
npx @wonderwhy-er/desktop-commander@latest remove

编辑 claude_desktop_config.json 并从 mcpServers 中删除 “desktop-commander” 条目。

Desktop Commander MCP 代表了我们与 AI 助手进行桌面自动化交互方式的范式转变。通过为 Claude 提供全面的终端控制、文件系统访问和原生数据文件支持,它将 Claude 从对话式 AI 转变为强大的自动化伙伴。

无论你是希望简化工作流程的开发者、需要快速洞察的数据分析师,还是自动化日常任务的系统管理员,Desktop Commander MCP 都提供了你所需的工具。其活跃的开发、不断增长的社区以及对开源原则的承诺,使其成为任何 Claude Desktop 设置的必备补充。


Beads:给你的 AI 编程助手一个记忆升级

Beads(bd)是一个专为 AI 编程助手设计的分布式、基于 Git 的图形化问题追踪器。由 Steve Yegge(前 Google/Amazon 工程师、著名软件博主)创建,Beads 解决了 AI 辅助开发中最令人沮丧的问题之一:上下文窗口限制

当你与 AI 编程助手开始新会话时,它会丢失对项目目标和进度的所有理解。Beads 提供了一个持久化、结构化的记忆,用依赖感知的图形替代混乱的 Markdown 计划,让 AI 助手能够处理长期任务而不丢失上下文。

  • Git 即数据库:问题以 JSONL 格式存储在 .beads/,像代码一样版本化和合并
  • AI 助手优化:JSON 输出、依赖追踪和自动就绪任务检测
  • 零冲突:哈希 ID 防止多 AI 助手工作流中的合并冲突
  • 隐形基础设施:SQLite 本地缓存配合后台守护进程自动同步
  • 记忆压缩:语义化总结旧任务以节省上下文窗口

安装 Beads 前,请确保你有:

  • 操作系统:Linux(glibc 2.32+)、macOS 或 Windows 11
  • Git:版本控制系统(用于同步和协作)
  • Go 1.24+(可选,用于从源码构建)
Terminal window
# 通用脚本(macOS/Linux)
curl -fsSL https://raw.githubusercontent.com/steveyegge/beads/main/scripts/install.sh | bash
Terminal window
# Homebrew(macOS/Linux)
brew tap steveyegge/beads
brew install bd
# npm
npm install -g @beads/bd
# Arch Linux(AUR)
yay -S beads-git
# Go
go install github.com/steveyegge/beads/cmd/bd@latest

用于 Claude Desktop 或其他仅支持 MCP 的环境:

Terminal window
# 使用 uv
uv tool install beads-mcp
# 使用 pip
pip install beads-mcp
Terminal window
bd version
bd help
Terminal window
cd your-project
bd init

这会创建一个 .beads/ 目录,包含 SQLite 数据库和 JSONL 导出文件。

为你偏好的 AI 编程助手配置 beads:

Terminal window
bd setup claude # Claude Code
bd setup cursor # Cursor IDE
bd setup aider # Aider

这会在 AI 助手的指令中添加大约 1-2k 的上下文 token。

在不提交到主仓库的情况下本地使用 Beads:

Terminal window
bd init --stealth

非常适合在共享项目中个人使用,而不影响团队工作流。

命令描述
bd ready列出没有待办阻塞的任务
bd create "标题" -p 0创建 P0(最高优先级)任务
bd dep add <child> <parent>添加任务依赖关系
bd show <id>查看任务详情和审计轨迹
bd close <id>标记任务完成
bd sync强制立即同步
bd compact总结旧的已关闭任务
bd quickstartAI 助手的交互式指南
bd dep tree可视化层级关系

构建跨多个会话的复杂功能时:

Terminal window
# 创建史诗任务和子任务
bd create "用户认证系统" -p 0
bd create "OAuth2 集成" -p 1
bd create "会话管理" -p 1
bd create "密码重置流程" -p 2
# 添加依赖关系
bd dep add bd-a2b3 bd-a1b2 # OAuth 依赖认证系统
bd dep add bd-a3b4 bd-a1b2 # 会话依赖认证系统

哈希 ID 在多个 AI 助手同时工作时防止冲突:

Terminal window
# AI 助手 1 创建任务
bd create "API 端点实现" # 获得 bd-x7y8
# AI 助手 2 同时创建任务(不同分支)
bd create "前端组件" # 获得 bd-z9w0(无冲突!)
# 无缝合并
git merge feature-branch
bd sync

晨会:

Terminal window
bd ready # 今天可以做什么?

工作中:

Terminal window
bd update bd-42 --status in_progress
# ... 完成工作 ...
bd close bd-42

会话结束(关键):

Terminal window
bd sync
git push

告诉你的 AI 助手使用 beads 进行任务管理:

Terminal window
echo "使用 'bd' 进行任务追踪。运行 'bd ready' 查找未阻塞的工作。" >> AGENTS.md

你的 AI 助手现在可以:

  • 查询就绪任务而不是加载整个规范文件
  • 在发现工作时创建和关联任务
  • 用审计轨迹标记任务完成
  • 跨会话边界保持上下文
bd-a3f8 (史诗:用户管理)
bd-a3f8.1 (任务:注册)
bd-a3f8.1.1 (子任务:邮箱验证)
bd-a3f8.2 (任务:个人资料编辑)

Beads 支持四种依赖类型:

  • blocks:任务 A 必须在任务 B 之前完成
  • related:任务在概念上相关
  • parent-child:层级组织
  • discovered-from:在处理其他任务时发现的任务

进行多个更改时,在 30 秒内批量处理:

Terminal window
bd create "修复 bug" -p 1
bd create "添加测试" -p 1
bd update bd-42 --status in_progress
bd sync # 在会话结束时强制刷新
Terminal window
bd compact # 总结旧的已关闭问题

这实现了”智能记忆衰减”——LLM 会总结旧的已关闭问题,用简洁的摘要替代详细内容。

Beads 目前处于 alpha 阶段(v0.9.x)。虽然在开发中稳定:

  • 在 1.0 版本发布前避免在关键生产系统中使用
  • 定期备份重要数据
  • 在 GitHub 上报告问题

Beads 完全依赖 Git 进行同步:

  • 确保在结束会话前 git push 成功完成
  • “飞机没有着陆直到 git push 完成”

虽然 Beads 减少了上下文消耗,但复杂查询仍然可能使用大量 token。使用目标查询(bd ready)而不是完整导出。

Q:Beads 与 GitHub Issues 有什么不同?

Section titled “Q:Beads 与 GitHub Issues 有什么不同?”

A: Beads 提供:

  • 类型化依赖,具有语义含义
  • 离线优先设计,使用本地 SQLite
  • Git 原生同步,无需外部服务
  • 哈希 ID,防止多 AI 助手冲突
  • AI 助手优化输出(JSON 格式)

A: 可以!所有查询都在本地 SQLite 上运行。有网络时通过 git push/pull 同步。

A: Beads 是 Jira 或 GitHub Issues 等工具的补充而非替代。用 Beads 做 AI 助手记忆和本地开发;将重要问题同步到主追踪器。

Q:如何从基于 Markdown 的规划迁移?

Section titled “Q:如何从基于 Markdown 的规划迁移?”

A: 从现有待办事项创建 beads 问题:

Terminal window
bd create "旧计划中的功能" -p 1
bd create "另一个任务" -p 2

A: 支持!哈希 ID 防止冲突。为每个助手配置:

Terminal window
bd setup claude
bd setup cursor
bd setup aider
功能BeadsGitHub IssuesJiraLinear
Git 原生
离线优先
AI 助手优化
依赖图有限
免费/开源
记忆压缩
哈希 ID

Beads 生态系统包含多个社区构建的工具:

  • beads_viewer - 键盘驱动的终端 UI,带看板
  • beads.el - Emacs 的 beads 管理界面
  • beads-ui - 本地 Web 界面,支持实时更新
  • bdui - 实时终端 UI,支持 vim 风格导航
  • perles - 终端 UI,支持 BQL(Beads 查询语言)
  • vscode-beads - VS Code 扩展

Beads 代表了我们思考 AI 编程助手方式的范式转变。与其将它们视为会话间遗忘一切的无状态工具,Beads 给予它们持久化、结构化的记忆,随项目一起成长。

通过利用 Git 熟悉的工作流、提供 AI 助手优化的查询,以及实现智能记忆压缩,Beads 实现了真正的长期任务管理。无论你是独自工作还是协调多个 AI 助手,Beads 确保你的编程助手永远不会失去对大局的把握。

立即开始:

Terminal window
curl -fsSL https://raw.githubusercontent.com/steveyegge/beads/main/scripts/install.sh | bash
bd init
echo "使用 'bd' 进行任务追踪" >> AGENTS.md

你的 AI 编程助手的记忆刚刚获得了重大升级。

埃森哲 × Anthropic:30000名 Claude 专家重塑企业级 AI

从AI试点到大规模生产:史上最大规模的Claude部署

埃森哲Anthropic合作封面


2025年12月9日,两大科技巨头宣布了一项改变游戏规则的合作。埃森哲(Accenture)Anthropic联手启动多年期战略合作,这将从根本上重塑企业采用AI的方式。

这不是又一个普通的AI合作公告,而是史上最大规模的Claude部署——约30000名埃森哲专业人员将接受Claude培训,打造全球最大的Claude实践者生态系统之一。


许多企业陷入了”AI试点地狱”——不断进行实验,却无法实现生产级部署。这次合作直接解决了这一痛点。

指标数值
将接受培训的专业人员约30000人
Anthropic企业市场份额从24%增长至40%
Claude Code市场份额超过AI编程市场的50%
合作期限多年期(据华尔街日报报道为3年)

这是一个专门的战略单元,使Anthropic成为埃森哲的核心合作伙伴之一。该集团将:

  • 培训30000+专业人员使用Claude
  • 部署前线工程师(埃森哲称之为”再造部署工程师”)
  • 将Claude直接嵌入客户环境

为什么重要: 这些工程师不仅仅是实施者——他们帮助企业以更低风险、更快速度扩展AI应用。


Anthropic和埃森哲将共同投资在埃森哲内部建立专门的Claude卓越中心。该中心专注于:

  • 联合设计新的AI解决方案
  • 为特定企业需求定制方案
  • 满足行业特定要求和监管合规
  • 定制化监管环境解决方案

为什么重要: 这不是现成的AI方案,而是为复杂、受监管行业打造的企业级AI。


该合作推出的首个产品面向技术领导者:

组成部分描述
Claude Code集成AI编程工具成为企业软件开发生命周期的核心
生产力框架量化真实生产力提升和投资回报率
工作流重构AI优先的开发团队架构
变革管理培训和组织转型

为什么重要: CIO首次获得一种结构化方法来衡量和推动工程组织大规模采用AI。


🏭 行业聚焦:优先服务受监管行业

Section titled “🏭 行业聚焦:优先服务受监管行业”

该合作战略性地瞄准高度受监管的行业——这些行业AI采用最具挑战性,同时价值也最高:

  • 合规工作流自动化
  • 精准决策系统
  • 监管报告自动化
  • 专有数据集分析
  • 临床试验加速处理
  • 研究文档自动化
  • 政府服务导航AI代理
  • 符合数据隐私的解决方案
  • 公民服务增强

为什么从这里开始? 这些行业面临双重挑战:既要现代化遗留系统,又要维持严格的安全和治理要求。在这里取得成功,证明该模式适用于所有行业。


Dario Amodei,Anthropic CEO兼联合创始人:

“我们的新合作意味着数万名埃森哲开发人员将使用Claude Code,这是我们有史以来最大规模的部署。”

Julie Sweet,埃森哲董事长兼CEO:

“此次合作扩展将帮助我们的客户加速从AI实验转向将AI作为企业全面再造的催化剂。”


  • 成熟的部署模式:30000名受训专业人员意味着经过实战检验的实施模式
  • 降低风险:前线工程师处理复杂性
  • 可衡量的投资回报:首个内置生产力指标的CIO解决方案
  • Claude Code访问:企业级规模的顶级AI编程工具
  • 工作流整合:内置AI优先的开发实践
  • 培训渠道:接入全球最大的Claude实践者生态系统之一
  • 合规优先方法:专为监管要求设计的解决方案
  • 行业专业知识:金融服务、医疗健康和公共部门的定制方案
  • 安全聚焦:企业级数据隐私和治理

这次合作标志着AI行业的重大转变:

  1. 从实验到生产:企业AI市场正在成熟
  2. 咨询+AI厂商深度绑定:深度整合胜过表面合作
  3. 优先攻克受监管行业:在最艰难的环境中证明AI有效
  4. 开发工具成为企业入口:Claude Code超过50%的市场份额使其成为切入点

Anthropic企业市场份额从24%增长到40%不仅仅是一个数字——这是企业将Claude作为最关键AI项目首选的有力证明。


埃森哲-Anthropic合作代表着:

  • 史上最大规模的Claude部署(30000+专业人员)
  • 企业AI采用的新模式(嵌入式工程师+卓越中心)
  • 聚焦最难的问题(受监管行业)
  • 可衡量的商业成果(带ROI框架的CIO解决方案)

对于陷入AI试点困境的企业来说,这次合作提供了一条从实验到生产级转型的清晰路径。


信息来源:


📣 你对企业AI采用有什么看法? 欢迎在评论区分享你的观点!

如果你喜欢这类AI行业动态,记得【在看 + 转发】给关注AI的朋友们!

Claude Code 系统提示词全揭秘:解密你的 AI 编程助手

深入了解 Anthropic AI 编程助手的隐藏架构

Claude Code System Prompts


你是否好奇过 Claude Code 是如何运作的?感谢开源社区,特别是 Piebald-AI/claude-code-system-prompts 这个仓库,我们现在可以前所未有地窥探到这个市场上最受欢迎的 AI 编程助手背后复杂的系统提示词。

这个由 Piebald 团队维护的仓库,全面收录了 Claude Code 的各种系统提示词,并随每个新版本更新。截至 Claude Code v2.0.75(2025年12月20日),它已经涵盖了从 v2.0.14 以来 56 个版本的更新日志。


为什么 Claude Code 有多个系统提示词

Section titled “为什么 Claude Code 有多个系统提示词”

Claude Code 不只是用一个简单的字符串作为系统提示词。 相反,它由多个组件协同工作:

组件类型描述
条件提示词根据环境和配置动态添加的大块内容
工具描述内置工具如 WriteBashTodoWrite 的说明
代理提示词Explore、Plan 和 Task 代理的独立系统提示词
实用功能对话压缩、CLAUDE.md 生成等 AI 驱动的功能

最终结果是 40+ 个字符串,它们在一个非常大的压缩 JS 文件中不断变化和移动。


核心系统提示词定义了 Claude Code 的基本行为:

沟通风格:

  • 响应应该”简短精炼”,适合命令行显示
  • 使用 GitHub 风格的 Markdown,针对等宽字体格式化
  • 除非明确要求,否则避免使用表情符号
  • 工具仅用于完成任务,而非与用户沟通

技术方法:

  • 优先考虑技术准确性和真实性
  • 提供直接、客观的技术信息
  • 在提出修改建议前先读取文件
  • 避免过度设计和不必要的抽象
代理Token 数用途
Explore516Explore 子代理的系统提示词
Plan Mode (Enhanced)633Plan 子代理的增强提示词
Task Tool294Task 工具生成的子代理系统提示词
代理Token 数用途
Agent Creation Architect1,111创建带详细规格的自定义 AI 代理
CLAUDE.md Creation384分析代码库并创建 CLAUDE.md 文件
Status Line Setup1,310配置状态行显示
命令Token 数用途
/pr-comments402获取和显示 GitHub PR 评论
/review-pr243审查 GitHub Pull Request
/security-review2,610代码变更的全面安全审查
实用功能Token 数用途
Bash 命令前缀检测835检测命令前缀和注入
对话摘要1,121+创建详细的对话摘要
Claude 指南代理763帮助用户理解 Claude Code
会话标题生成333生成标题和 git 分支名
WebFetch 摘要器185摘要冗长的网页获取输出

Claude Code 的内置工具都有详细的描述:

工具Token 数描述
Bash1,074带安全指南运行 shell 命令
TodoWrite2,167带最佳实践的任务列表管理
Task1,214启动专门的子代理
EnterPlanMode970进入计划模式进行实现设计
ReadFile439支持多模态的文件读取
Edit278文件中的精确字符串替换
Write159创建/覆盖文件
Grep300使用 ripgrep 进行内容搜索

系统提示词在不断演进。以下是近期的关键变化:

  • 精简了任务工具指令
  • 移除了工具调用前不使用冒号的指令
  • 新增”会话搜索助手”代理,用于查找相关会话
  • 移除了委托模式限制
  • 添加”提示建议生成器 v2”,改进意图预测
  • 将斜杠命令功能合并到 Skill 工具
  • 扩展 LSP 功能,支持调用层次操作
  • 通过新的 Computer 工具引入浏览器自动化支持
  • 启用基于 Chrome 的任务执行
  • 规划理念的重大转变:重写 EnterPlanMode,鼓励对非琐碎任务进行主动规划

理解这些提示词可以帮助你:

  1. 更高效地使用 Claude Code - 了解其优先级和约束
  2. 编写更好的提示 - 使你的请求与 Claude Code 的设计保持一致
  3. 调试意外行为 - 理解为什么会出现某些响应

这种透明度提供了:

  1. 学习机会 - 研究生产级 AI 系统是如何进行提示的
  2. 最佳实践 - 了解 Anthropic 如何构建复杂的多代理系统
  3. 研究材料 - 跨工具比较提示策略

想要自定义 Claude Code 的系统提示词?Piebald 团队还创建了 tweakcc,它可以让你:

  • 将系统提示词的各个部分自定义为 Markdown 文件
  • 给你的 npm 安装版或原生版 Claude Code 打补丁
  • 管理你和 Anthropic 同时修改同一提示文件时的冲突

Piebald 被称为”终极 AI 代理开发者体验”。它支持:

  • 多供应商 API:OpenAI 兼容、Anthropic 兼容或 Google 兼容
  • 凭据导入:从 Claude Code、Gemini CLI 和 Codex CLI 导入
  • 完全自定义:提示词、模型设置和可复用配置文件

Piebald-AI/claude-code-system-prompts 仓库为我们提供了前所未有的视角,让我们了解 Claude Code 内部是如何工作的:

  • 40+ 个提示字符串 协同工作
  • 多种代理类型 处理不同任务
  • 详细的工具描述 指导行为
  • 持续演进 跨越 56+ 个版本

这种透明度通过展示生产级 AI 编程助手的架构方式,使整个 AI 开发社区受益。


来源:


你探索过 Claude Code 的系统提示词吗?发现了什么有趣的见解?欢迎在评论区分享!

A2UI:Google 开源的 Agent 驱动界面协议,改变一切

从纯文本响应到丰富原生界面:Google A2UI 协议如何让 AI Agent 生成交互式用户界面

A2UI Agent 驱动界面


2025年12月15日,Google 正式公开发布了 A2UI(Agent to UI)——一个开源协议,让 AI 智能体能够生成丰富的交互式用户界面,在各平台上以原生方式渲染,无需执行任意代码。

想象一下:AI 智能体不再只是返回纯文本,而是可以发送一个完整的交互式表单、数据可视化卡片或预订确认界面。神奇之处在于,你的应用使用原生组件来渲染这些界面,既保持了你的设计系统,又享受了 AI 生成界面的便利。

传统智能体交互面临根本性的矛盾:

方案问题
纯文本响应表达能力有限,来回对话繁琐
iframe 中的 HTML/JavaScript安全风险、沙箱复杂、无法融入原生样式
A2UI 方案声明式 JSON 数据 + 原生渲染 = 两全其美
特性描述
安全优先声明式数据格式(非可执行代码)。智能体只能渲染目录中预批准的组件
LLM 友好扁平化组件列表加 ID 引用,便于 LLM 增量生成
框架无关适用于 React、Flutter、Angular、SwiftUI、Lit 等
传输无关兼容 A2A、AG-UI、REST(实验性)
渐进式渲染用户可实时看到 UI 随 LLM 生成而构建
  • 核心团队:Google A2UI 团队
  • 重要合作方:CopilotKit/AG-UI(首日兼容)、Opal(核心贡献者)、Gemini Enterprise
  • 开源协议:Apache 2.0
  • 当前版本:v0.8(公开预览版)

开始之前,请确保具备:

  • Node.js(用于 Web 客户端和渲染器)
  • Python 3.8+(用于智能体示例)
  • Gemini API Key(用于演示智能体)
  • UV 包管理器(Python 推荐)

克隆仓库:

Terminal window
git clone https://github.com/google/A2UI.git
cd A2UI

设置 API Key:

Terminal window
export GEMINI_API_KEY="你的_gemini_api_key"

此演示展示了 A2UI 结合 Gemini 驱动智能体的完整能力:

1. 启动后端智能体:

Terminal window
cd samples/agent/adk/restaurant_finder
uv run .

2. 启动 Web 客户端(Lit 渲染器):

Terminal window
cd samples/client/lit/web_shell
npm install
npm run dev

3. 打开浏览器访问 http://localhost:5173 开始对话!

A2UI/
├── a2a_agents/ # 智能体实现
├── docs/ # 文档
├── renderers/ # 框架特定渲染器(Lit、Angular 等)
├── samples/ # 演示应用
├── specification/ # A2UI 格式规范
└── tools/ # 开发工具
框架状态备注
Lit可用示例中演示
Angular可用Web Components 集成
Flutter可用GenUI SDK 内部使用 A2UI
React路线图v1.0 优先
SwiftUI路线图iOS/macOS 原生
Jetpack Compose路线图Android 原生

非常适合根据用户需求自适应的场景特定表单:

用户:"我想为明天晚上4个人预订餐厅"
智能体:[生成带日期选择器、人数、时间段的交互式预订表单]

远程智能体可在编排器上下文中生成 UI:

  • 智能体 A 负责数据检索
  • 智能体 B 生成可视化卡片
  • 编排器无缝组合 UI
  • 自定义工作流仪表盘
  • 审批界面
  • 实时状态可视化

同一智能体响应可原生渲染在:

  • Web 浏览器
  • 移动应用(iOS/Android)
  • 桌面应用

1. 定义组件目录

从一组精选的可信组件开始:

{
"catalog": ["Card", "Button", "TextField", "Select", "DataTable", "Chart"]
}

2. 保持组件简单

每个组件应职责单一。从简单构建块组合复杂 UI。

3. 有效使用数据绑定

将 UI 结构与数据模型分离:

{
"component": "TextField",
"id": "email_input",
"bind": "user.email"
}

4. 处理增量更新

利用 A2UI 的扁平结构实现高效局部更新:

{
"type": "surfaceUpdate",
"components": [
{"id": "status_badge", "text": "已确认"}
]
}

工作场景 - 项目状态仪表盘:

用户:"显示冲刺状态"
智能体:[生成包含任务卡片、燃尽图、团队速度指标的仪表盘]

生活场景 - 餐厅发现:

用户:"找找附近有户外座位的意大利餐厅"
智能体:[生成带评分、照片、"立即预订"按钮的餐厅卡片]

领域建议
安全性目录中只包含你信任的组件。A2UI 是声明式的而非可执行的,但你的渲染器实现必须安全
版本控制A2UI 当前为 v0.8(公开预览版)。v1.0 之前预期会有破坏性变更
性能对于复杂 UI,考虑在渲染器中实现分页和懒加载
无障碍性你的渲染器负责无障碍功能。A2UI 提供结构;你提供语义

问:A2UI 与发送 HTML 有什么不同?

答:A2UI 发送描述 UI 组件的结构化 JSON。你的应用使用原生组件来渲染,保持你的设计系统、无障碍性和安全性。HTML/JS 需要沙箱且无法与原生样式集成。

问:智能体能通过 A2UI 执行任意代码吗?

答:不能。A2UI 是声明式数据格式。智能体只能请求预批准目录中的组件。你的渲染器决定如何呈现它们。

问:A2UI 会取代 MCP(Model Context Protocol)吗?

答:不会,它们是互补的。MCP 将智能体连接到工具和数据。A2UI 定义智能体如何描述 UI。你可以在同一系统中同时使用两者。

问:AG-UI 呢?

答:AG-UI 是实时智能体-UI 通信的传输层。A2UI 定义载荷格式。它们完美协作。

问:A2UI 可以用于生产环境吗?

答:A2UI 是 v0.8(公开预览版)。功能可用但仍在演进中。生产使用应规划规范更新。

问题:智能体响应未渲染

Terminal window
# 检查 A2UI 消息格式
# 消息应遵循:文本 + "---a2ui_JSON---" + 有效 JSON

解决方案:确保智能体输出符合带正确分隔符的 A2UI 模式。

问题:组件未显示

解决方案:验证组件类型在你的目录中:

const catalog = ['Card', 'Button', 'TextField'];
// 智能体请求了 'DataGrid' 但它不在目录中

问题:数据绑定未更新

解决方案:检查数据模型是否正确初始化,绑定路径是否正确:

{
"bind": "user.profile.name" // 确保此路径存在于数据模型中
}

2025年,三个互补协议成为智能体驱动界面的基础:

协议用途创建者关注点
A2UI声明式 UI 描述Google渲染什么 UI(载荷)
MCP智能体到工具的连接Anthropic智能体如何访问工具(垂直)
AG-UI实时智能体-UI 通信CopilotKitUI 如何接收更新(传输)
A2A智能体到智能体通信Google智能体间如何对话(水平)
方面A2UIMCP-UI/MCP Apps
理念原生优先:“蓝图”用于原生组件Web 优先:沙箱 iframe 中的 HTML/JS
渲染应用使用原生组件渲染浏览器渲染沙箱化 Web 内容
样式继承宿主应用样式沙箱中隔离样式
安全模型组件目录限制iframe 沙箱
跨平台同一载荷适用于 Web、移动端、桌面端主要面向 Web
支持方GoogleAnthropic、OpenAI
┌─────────────────────────────────────────────────────────┐
│ 你的应用 │
├─────────────────────────────────────────────────────────┤
│ │
│ ┌─────────┐ ┌─────────┐ ┌─────────────────────┐ │
│ │ A2UI │ │ AG-UI │ │ MCP │ │
│ │ (载荷) │───▶│ (传输) │◀───│ (工具与数据) │ │
│ └─────────┘ └─────────┘ └─────────────────────┘ │
│ │ │ │ │
│ ▼ ▼ ▼ │
│ [原生 UI] [实时更新] [外部 API] │
│ [组件] [数据库] │
│ [文件] │
│ │
├─────────────────────────────────────────────────────────┤
│ 智能体通信层 │
│ │
│ ┌──────────────────────────────────────────────────┐ │
│ │ A2A │ │
│ │ (智能体到智能体通信) │ │
│ └──────────────────────────────────────────────────┘ │
└─────────────────────────────────────────────────────────┘

Opal(同样来自 Google)使用 A2UI 作为底层协议:

  • Opal 为 AI 迷你应用提供更高层次的抽象
  • A2UI 提供 UI 描述的线路协议
  • 两者结合实现”一句话 AI 应用”
场景推荐协议
带 AI 功能的原生移动应用A2UI + AG-UI
带丰富响应的 Web 聊天MCP Apps 或 A2UI
带 UI 的多智能体编排A2UI + A2A + AG-UI
带数据访问的工具调用MCP
跨平台一致性A2UI

资源链接
A2UI 官网a2ui.org
GitHub 仓库github.com/google/A2UI
Google 开发者博客公告A2UI 介绍
A2UI Composer(组件构建器)go.copilotkit.ai/A2UI-widget-builder
主题链接
什么是 A2UIa2ui.org/introduction/what-is-a2ui
核心概念a2ui.org/core-concepts
规范a2ui.org/specification
协议文档
MCP(Model Context Protocol)modelcontextprotocol.io
A2A(Agent-to-Agent)a2aprotocol.ai
AG-UIcopilotkit.ai/ag-ui
资源描述
CopilotKit 博客智能体 UI 现状
DEV.to 教程A2UI 实践
Hacker News 讨论A2UI 协议讨论

A2UI 团队优先事项:

  1. 规范稳定化(v1.0)
  2. React 渲染器(官方支持)
  3. Jetpack Compose 和 SwiftUI(原生移动端)
  4. REST 传输(生产就绪)
  5. 与 Genkit 和 LangGraph 集成

A2UI 代表了 AI 智能体与用户交互方式的根本性转变。智能体不再只能返回纯文本或冒险执行代码,现在可以描述丰富的交互式 UI,在各平台上原生渲染。

核心要点:

  1. A2UI 是声明式的 —— 描述 UI,而非执行代码
  2. 安全设计 —— 组件目录限制智能体可请求的内容
  3. 框架无关 —— 一个智能体响应适用于 Web、移动端、桌面端
  4. 可组合 —— 与 MCP、AG-UI、A2A 协同工作,构建完整的智能体系统

随着智能体时代的加速发展,A2UI 这样的协议将成为构建原生、安全、响应式 AI 应用的关键基础设施。


准备好使用 A2UI 构建了吗?官方快速入门开始,或探索 GitHub 示例

Hugging Face Skills:用自然语言微调任何开源大模型

将对话转化为微调模型 — 无需机器学习专业知识

Hugging Face Skills


Hugging Face Skills 是一个革命性的系统,它使 AI 编程助手(如 Claude CodeOpenAI CodexGoogle Gemini CLI)能够通过自然语言对话,端到端地微调开源大语言模型。

无需手动编写复杂的训练脚本、配置 GPU 资源或管理部署流程,只需用自然语言描述需求:

用我的客户支持数据集微调 Qwen3-0.6B,训练 3 个 epoch。

AI 助手将自动处理所有环节:数据验证、硬件选择、脚本生成、任务提交、进度监控和模型发布。


功能描述
数据验证训练前自动检查数据集格式兼容性
硬件选择根据模型大小和预算智能选择 GPU
脚本生成使用 TRL 库创建生产级训练脚本
任务提交将训练任务提交到 Hugging Face 云 GPU
实时监控通过 Trackio 仪表板追踪训练进度
模型发布将完成的模型推送到 Hugging Face Hub
GGUF 转换转换模型以便用 llama.cpp/Ollama 本地部署
方法适用场景数据集示例
SFT(监督微调)高质量行为示例客户支持对话
DPO(直接偏好优化)偏好标注数据选中/拒绝的响应对
GRPO(群体相对策略优化)可验证的成功标准数学问题、编程任务
  • Anthropic Claude Code — 通过 MCP 协议完整集成
  • OpenAI Codex — 使用 AGENTS.md 加载指令
  • Google Gemini CLI — 基于扩展的集成方式
  • 即将支持: Cursor、Windsurf、Continue

  • Hugging Face 账号(Pro 或 Team/Enterprise 计划,Jobs 功能需付费)
  • 写入权限 Token,从 huggingface.co/settings/tokens 获取
  • 编程助手(Claude Code、Codex 或 Gemini CLI)
Terminal window
# 第一步:注册 Hugging Face Skills 市场
/plugin marketplace add huggingface/skills
# 第二步:安装 LLM 训练技能
/plugin install hf-llm-trainer@huggingface-skills

备选方案:基于 MCP 安装

Terminal window
# 通过 MCP 传输添加
claude mcp add --transport http hf-skills \
https://huggingface.co/mcp?bouquet=skills \
--header "Authorization: Bearer $HF_TOKEN"

Codex 通过 AGENTS.md 文件自动识别技能:

Terminal window
# 验证安装
codex --ask-for-approval never "Summarize the current instructions."
Terminal window
# 方式一:从 GitHub 安装
gemini extensions install https://github.com/huggingface/skills.git --consent
# 方式二:本地安装
gemini extensions install . --consent
Terminal window
# 交互式登录(推荐)
hf auth login
# 或设置环境变量
export HF_TOKEN=hf_你的写入权限token

使用 SFT 方法,用 my-org/support-conversations 数据集
微调 Qwen3-1.7B,训练 3 个 epoch。

预期工作流:

  1. 助手验证数据集格式(查找 “messages” 列)
  2. 选择 t4-medium 硬件(约 $0.75/小时)
  3. 配置适当的 batch size
  4. 提交任务并提供监控链接
  5. 将模型推送到 your-username/qwen-support-sft

场景二:带偏好学习的代码助手

Section titled “场景二:带偏好学习的代码助手”
第一阶段:在 code-examples 数据集上进行 SFT
第二阶段:使用包含 chosen/rejected 列的 preference-data
进行 DPO 对齐

多阶段流水线:

  • 第一阶段建立基础能力
  • 第二阶段与人类偏好对齐
  • 助手自动处理两个阶段
基于 Qwen3-0.6B,使用 GRPO 方法在 openai/gsm8k
数据集上训练数学推理模型。使用可验证的奖励信号。

最适合:

  • 有正确/错误答案的问题
  • 带单元测试的代码生成
  • 数学证明
  1. 始终先验证

    检查 my-org/training-data 是否适用于 SFT 训练。

    这只需几分钱,却能避免 30+ 美元的失败损失。

  2. 从演示运行开始

    用数据集的 100 个样本做一次快速测试。
  3. 生产环境要明确

    在完整数据集上对 Qwen-0.6B 进行生产级 SFT。
    每 500 步保存检查点,3 个 epoch,余弦学习率。
  4. 实时监控

    我的训练任务进展如何?

    获取实时损失曲线、学习率和预计完成时间。


模型大小推荐 GPU训练时间预估成本备注
<1Bt4-small<1 小时$1-2演示/测试
1-3Bt4-medium / a10g-small2-3 小时$5-15小型生产
3-7Ba10g-large (LoRA)4-8 小时$15-40中型生产
7B+不支持超出工具能力范围

注意: 3B 以上的模型会自动使用 LoRA(低秩适应)以适应内存,同时保持质量。


注意事项、常见问题与故障排除

Section titled “注意事项、常见问题与故障排除”

问:尝试这个功能的最低成本是多少?

答:使用 t4-small 在 100 个样本上的演示运行大约需要 $0.30-0.50。

问:可以训练 7B 以上的模型吗?

答:当前 HF Skills 系统支持最大 7B。更大的模型需要使用完整的 Hugging Face 基础设施。

问:支持哪些数据集格式?

答:

  • SFT: 包含对话格式的 messages
  • DPO: chosenrejected 列,以及可选的 prompt
  • GRPO: 包含可验证正确答案的数据集

问:如何修复列名不匹配的问题?

答:询问助手:

我的 DPO 数据集使用 'good_response' 和 'bad_response'
而不是 'chosen' 和 'rejected'。如何修复?
问题解决方案
内存不足助手建议减小 batch size 或升级硬件
数据集格式错误先运行验证;助手会识别不匹配
训练超时调整 epoch 数量或使用检查点
认证失败验证 HF_TOKEN 是否有写入权限
  1. 使用 Trackio 仪表板 — 在 huggingface.co/spaces/username/trackio 获得实时训练可视化
  2. 转换为 GGUF — 无需网络依赖即可本地部署
  3. 定期保存检查点 — 从中断中恢复而不丢失进度

方面传统方式HF Skills
准备时间数小时到数天数分钟
需要的机器学习知识大量无需
硬件管理手动自动化
成本可见性训练后提交前
监控自定义设置内置 Trackio
助手集成方式优势
Claude CodeMCP + 插件最适合复杂的多步骤工作流
OpenAI CodexAGENTS.md强大的代码生成能力
Gemini CLI扩展Google 生态系统集成
工具重点主要区别
Hugging Face AutoTrain基于 GUI 的训练可视化界面,对话性较弱
AWS SageMaker企业级机器学习更复杂,范围更广
Google Vertex AI云端机器学习与 GCP 紧密耦合
Together AI推理 + 训练API 优先的方式

为什么选择 HF Skills?

  • 自然语言界面
  • 无需编写代码
  • 中小型模型性价比高
  • 与 Hub 无缝集成


Hugging Face Skills 代表了模型微调方式的范式转变。通过在自然语言和机器学习基础设施之间架起桥梁,它使自定义 AI 模型的创建变得人人可及。

无论您是希望创建专用代码助手的开发者、构建客服机器人的企业,还是探索新训练方法的研究人员,HF Skills 都提供了易用、经济、强大的解决方案。

立即开始:

Terminal window
# 安装技能
/plugin marketplace add huggingface/skills
/plugin install hf-llm-trainer@huggingface-skills
# 认证
hf auth login
# 开始训练!
"用我的数据集微调 Qwen3-0.6B 进行指令跟随训练。"

AI 模型训练的未来是对话式的。欢迎来到 Skills 时代。


最后更新:2025 年 12 月 21 日

n8n-skills:用 Claude Code 构建完美的 n8n 工作流

用 AI 驱动的技能改变你的 n8n 工作流开发方式

n8n-skills Claude Code 集成


n8n-skills 是一套 7 个互补的 Claude Code 技能,旨在教会 AI 助手如何使用 n8n-mcp MCP 服务器构建生产级别的 n8n 工作流。

AI AdvisorsRomuald Członkowski 创建,这些技能解决了开发者在程序化构建 n8n 工作流时面临的常见挑战。


程序化构建 n8n 工作流可能充满挑战。常见问题包括:

挑战n8n-skills 如何帮助
MCP 工具使用不当提供工具选择的专家指导
验证错误循环验证错误解读和修复
不了解工作流模式5 种经过验证的架构模式
节点配置错误操作感知的节点配置
表达式语法错误正确的 {{}} 模式和变量

教授正确的 n8n 表达式语法和常见模式。

触发条件:编写表达式、使用 {{}} 语法、访问 $json/$node 变量时。

核心功能

  • 核心变量 ($json, $node, $now, $env)
  • 关键提醒:Webhook 数据位于 $json.body
  • 常见错误目录及修复方法
  • 何时不使用表达式(Code 节点!)

2. n8n MCP 工具专家(最高优先级)

Section titled “2. n8n MCP 工具专家(最高优先级)”

使用 n8n-mcp MCP 工具的专家指南。

核心功能

  • 工具选择指南(哪个工具用于哪个任务)
  • nodeType 格式差异(nodes-base.* vs n8n-nodes-base.*)
  • 验证配置文件(minimal/runtime/ai-friendly/strict)
  • 智能参数(IF 节点的 branch=“true”)
  • 自动清理系统说明

使用 5 种经过验证的架构模式构建工作流。

核心功能

  • 5 种验证模式(webhook 处理、HTTP API、数据库、AI、定时任务)
  • 工作流创建检查清单
  • 来自 2,653+ n8n 模板的真实示例
  • 模式选择指南

解读验证错误并指导修复。

核心功能

  • 验证循环工作流
  • 真实错误目录
  • 自动清理行为说明
  • 误报指南

操作感知的节点配置指导。

核心功能

  • 属性依赖规则(例如 sendBody → contentType)
  • 操作特定要求
  • AI 连接类型(AI Agent 工作流的 8 种类型)

在 n8n Code 节点中编写有效的 JavaScript 代码。

核心功能

  • 数据访问模式 ($input.all(), $input.first(), $input.item)
  • 正确的返回格式:[{json: {...}}]
  • 内置函数 ($helpers.httpRequest(), DateTime, $jmespath())
  • 前 5 大错误模式及解决方案(覆盖 62%+ 的失败)
  • 10 个生产级测试模式

在 n8n Code 节点中编写 Python 代码,了解适当的限制。

核心功能

  • 重要:95% 的场景使用 JavaScript
  • 关键限制:没有外部库(requests, pandas, numpy)
  • 标准库参考(json, datetime, re 等)
  • 缺失库的替代方案

  1. n8n-mcp MCP 服务器已安装并配置(安装指南
  2. Claude Code、Claude.ai 或 Claude API 访问权限
  3. .mcp.json 已配置 n8n-mcp 服务器
Terminal window
# 直接作为 Claude Code 插件安装
/plugin install czlonkowski/n8n-skills
Terminal window
# 添加为市场,然后浏览并安装
/plugin marketplace add czlonkowski/n8n-skills
# 然后浏览可用插件
/plugin install
# 从列表中选择 "n8n-mcp-skills"
Terminal window
# 1. 克隆此仓库
git clone https://github.com/czlonkowski/n8n-skills.git
# 2. 复制技能到你的 Claude Code 技能目录
cp -r n8n-skills/skills/* ~/.claude/skills/
# 3. 重新加载 Claude Code
# 技能将自动激活

用户:"构建并验证一个 webhook 到 Slack 的工作流"
激活的技能:
1. n8n 工作流模式 → 识别 webhook 处理模式
2. n8n MCP 工具专家 → 搜索 webhook 和 Slack 节点
3. n8n 节点配置 → 指导节点设置
4. n8n Code JavaScript → 帮助处理 webhook 数据
5. n8n 表达式语法 → 帮助数据映射
6. n8n 验证专家 → 验证最终工作流

非常适合使用 LangChain 节点构建智能自动化:

  • AI 连接类型指导
  • 内存和输出解析器配置
  • 流式传输模式约束

构建可靠的定时工作流:

  • 定时触发器配置
  • 数据库集成模式
  • 错误处理最佳实践

高效连接外部服务:

  • HTTP Request 节点配置
  • 认证模式
  • 响应处理

在从头构建之前,始终检查 n8n 的 2,709 个工作流模板:

"搜索 slack 通知的模板"
→ n8n MCP 工具专家激活
→ 返回精选的模板选项

使用多级验证方法:

级别配置文件使用场景
1minimal快速必填字段检查 (<100ms)
2runtime带修复的完整验证
3ai-friendlyAI 工作流平衡验证
4strict完整验证

许多 n8n 节点有条件属性:

// 示例:HTTP Request 节点
{
sendBody: true, // 设置这个...
contentType: "json" // ...需要这个
}
// ✅ 正确
{{ $json.data.value }}
{{ $node["Previous Node"].json.result }}
// ❌ 常见错误
{{ $json["body"]["data"] }} // 在 webhook 中,数据在 $json.body 下!

Q:为什么我的 webhook 工作流失败了?

Section titled “Q:为什么我的 webhook 工作流失败了?”

A:记住 webhook 数据在 $json.body 下,而不是直接在 $json 中。这是最常见的陷阱。

// ❌ 错误
{{ $json.userId }}
// ✅ 正确
{{ $json.body.userId }}

Q:如何在 Code 节点的 JS 和 Python 之间选择?

Section titled “Q:如何在 Code 节点的 JS 和 Python 之间选择?”

A:95% 的场景使用 JavaScript。Python 有关键限制:

  • 没有外部库(requests, pandas, numpy)
  • 只有标准库可用

A:使用适当的验证配置文件:

  • minimal 用于开发期间的快速检查
  • runtime 用于生产就绪验证
  • 检查自动清理行为

Q:我应该首先使用哪些 MCP 工具?

Section titled “Q:我应该首先使用哪些 MCP 工具?”

A:按照这个顺序:

  1. search_templates - 检查是否存在模板
  2. search_nodes - 查找所需节点
  3. get_node - 获取配置详情
  4. validate_node - 验证你的配置
  5. validate_workflow - 最终检查

方面使用 n8n-skills不使用
学习曲线AI 引导自行探索
错误处理主动模式试错法
最佳实践内置需要研究
验证多级自动化手动测试
特性n8nZapierMake
自托管
Code 节点✅ 完整 JS/Python有限有限
AI 集成✅ LangChain基础基础
开源
MCP 支持✅ 通过 n8n-mcp
工具用途
n8n-mcpn8n 的 MCP 服务器(必需)
n8n工作流自动化平台
Claude CodeAI 编程助手

  • 7 个互补技能协同工作
  • 525+ 个支持的 n8n 节点
  • 2,653+ 个用于示例的工作流模板
  • 10 个生产级测试的 Code 节点模式
  • 全面的错误目录和故障排除指南

n8n-skills 改变了你使用 Claude Code 构建 n8n 工作流的方式:

  1. 自动激活 - 检测到相关查询时技能自动触发
  2. 可组合设计 - 所有 7 个技能无缝协作
  3. 生产就绪模式 - 基于真实世界使用
  4. 验证优先 - 在部署前捕获错误

无论你是构建简单的 webhook 集成还是复杂的 AI agent 工作流,n8n-skills 都能提供你需要的指导来构建完美的自动化。


参考链接:


准备好提升你的 n8n 工作流开发了吗?今天就安装 n8n-skills,让 AI 引导你的自动化之旅!

Gemini CLI Conductor:先规划后编码的上下文驱动开发

Gemini CLI Conductor

本杰明·富兰克林曾说过:“不做计划,就是计划失败。”

这句话完美适用于 AI 辅助编码。虽然 ChatGPT 和 Claude 等工具在回答问题方面表现出色,但在复杂的多会话项目中,上下文经常在对话之间丢失,这让它们显得力不从心。

Conductor 应运而生 - 这是一个革命性的 Gemini CLI 扩展,引入了上下文驱动开发的概念。它不再将 AI 交互视为转瞬即逝的聊天记录,而是帮助你创建正式的规格文档和计划,以持久化的 Markdown 文件形式与代码共存。


Conductor 是 Gemini CLI 的一个预览版扩展,它彻底改变了你与 AI 协作开发的方式。其核心理念简单而强大:

“将上下文作为与代码并存的托管工件。”

不再依赖临时的聊天记录,Conductor 帮助你:

  • 在编写代码之前创建正式规格文档
  • 跨会话维护持久化上下文
  • 构建实施计划来指导 AI 的行为
  • 代码仓库成为唯一的事实来源

Conductor 强制执行结构化工作流:上下文 → 规格与计划 → 实施。这确保你在动手写代码之前充分思考需求。

所有项目上下文都存储在 Markdown 文件中:

  • 在单个聊天会话结束后依然存在
  • 可以用 Git 进行版本控制
  • 支持团队协作共享标准

工作被组织成清晰的层级结构:

  • Track(轨道) - 高级工作单元(功能、缺陷修复)
  • Phase(阶段) - 轨道内的主要阶段
  • Task(任务) - 单个实施步骤

与许多在现有代码库上表现不佳的 AI 工具不同,Conductor 在”棕地”开发中表现出色 - 能够很好地处理成熟项目中的架构细节。


开始使用 Conductor 非常简单:

Terminal window
gemini extensions install https://github.com/gemini-cli-extensions/conductor --auto-update

--auto-update 参数确保你始终使用最新版本。

安装

前置条件:

  • 已安装并配置 Gemini CLI
  • 已初始化 Git 仓库
  • 安装 Node.js(Gemini CLI 需要)

Conductor 提供五个核心命令:

命令

命令用途
/conductor:setup初始项目配置(每个项目运行一次)
/conductor:newTrack开始新功能或缺陷修复
/conductor:implement执行计划中的任务
/conductor:status查看当前进度
/conductor:revert逻辑回滚(基于轨道/阶段/任务,而非 Git 提交)

小技巧: 可以为 newTrack 添加描述:/conductor:newTrack "添加用户认证"


运行 /conductor:setup 建立项目的基础上下文:

/conductor:setup

这会创建以下配置文件:

  • 产品定义 - 用户、目标、功能
  • 技术栈 - 语言、框架、数据库
  • 工作流偏好 - TDD 方法、提交策略
  • 代码风格指南 - 格式化、命名规范

开始新工作时,创建一个轨道:

/conductor:newTrack "实现 OAuth 登录流程"

这会生成:

  • spec.md - 详细需求文档
  • plan.md - 包含阶段的可执行任务分解

关键: Conductor 要求在实施前进行人工审查计划。这是你完善需求并尽早发现问题的机会。

执行计划:

/conductor:implement

Conductor 会系统地完成任务,并维护状态,让你可以跨会话暂停和恢复。


设置后,你的项目将包含:

conductor/
├── product.md # 产品愿景和用户定义
├── product-guidelines.md # 品牌声音和文案风格
├── tech-stack.md # 技术偏好
├── workflow.md # 开发规范
├── code_styleguides/ # 语言特定的风格指南
├── tracks.md # 所有工作的主索引
└── tracks/
└── <track_id>/
├── spec.md # 此轨道的需求
├── plan.md # 实施计划
└── metadata.json # 状态和元数据

setup 命令建立共享的团队标准。运行一次,然后提交生成的文件。

计划在实施前需要人工批准。花时间完善它们 - 修改计划比重构代码便宜得多。

上下文密集型操作消耗更多 token。使用 /stats model 跟踪消耗。

/conductor:revert 命令基于轨道/阶段/任务而非 Git 提交进行回滚,提供更安全的回退方式。

5. 将上下文文件作为活文档维护

Section titled “5. 将上下文文件作为活文档维护”

你的 conductor 文件不仅仅是给 AI 用的 - 它们也是团队宝贵的文档。


特性标准聊天 AIConductor
上下文持久性仅限会话永久文件
规划可选强制
团队协作复制粘贴混乱共享配置
现有项目支持有限优秀
状态管理内置检查点

虽然两者都是 AI 驱动的,但服务于不同目的:

  • Conductor = 日常编码的项目经理
  • Amazon Transform = 大规模迁移(如 Java 8 → Java 17)

Conductor 是 IDE 集成 AI 的补充而非替代:

  • 使用 Conductor 进行规划和规格制定
  • 使用 Cursor/Claude 进行编辑器内实施

/conductor:setup # 仅首次
/conductor:newTrack "添加深色模式"
# 审查生成的规格和计划
/conductor:implement
/conductor:newTrack "修复登录超时问题"
# Conductor 首先生成调查任务
# 然后是实施任务
/conductor:implement

新开发者加入?他们可以:

  1. 阅读 conductor/product.md 了解产品上下文
  2. 查看 conductor/tech-stack.md 了解技术决策
  3. 检查 conductor/workflow.md 了解规范
  4. 立即开始使用一致的指南进行贡献

问题解决方案
找不到扩展确保 Gemini CLI 已更新到最新版本
Setup 失败检查你在仓库中是否有写权限
上下文过大使用 /stats model 监控;考虑拆分工作
计划生成缓慢大型代码库分析时可能需要耐心等待

A: 可以!Conductor 专门为”棕地”开发设计。setup 命令会分析你现有的代码库以理解模式。

A: 当然可以。计划是 Markdown 文件 - 在实施前根据需要编辑它们。

Q:我的代码会发送给 Google 吗?

Section titled “Q:我的代码会发送给 Google 吗?”

A: Conductor 使用 Gemini API。请查阅 Google 的 AI 条款和你组织的政策。

Q:我可以将 Conductor 与其他 AI 工具一起使用吗?

Section titled “Q:我可以将 Conductor 与其他 AI 工具一起使用吗?”

A: 可以。生成的规格和计划对任何 AI 助手都是有价值的输入。


Conductor 代表了 AI 辅助开发的范式转变。通过将上下文作为一等工件并将规划作为强制步骤,它解决了基于聊天的 AI 编码的核心弱点:上下文丢失和缺乏结构。

关键要点:

  • 先规划后编码 - Conductor 强制在实施前进行规格制定
  • 上下文为王 - 持久化文件确保会话之间不会丢失任何内容
  • 团队就绪 - 共享配置实现跨开发者的一致 AI 交互
  • 支持现有项目 - 与你现有的代码库协同工作,而非对抗

AI 编码的未来不仅仅是更快地生成代码 - 而是一致地生成正确的代码。Conductor 是朝这个方向迈出的重要一步。


BMAD V6 安装配置完全指南:项目目录安装最佳实践

BMAD (Build More, Architect Dreams) 是一套面向 AI 驱动开发的敏捷方法论框架,集成了多种 AI Agent、工作流和模块,支持 Claude Code、Codex、Cursor 等 18+ 种 IDE。本文将详细介绍 BMAD v6.0.0-alpha 的安装配置过程,并对每个配置选项进行深入解析。


核心建议:将 BMAD 安装到项目目录,而非用户主目录。

这样做的好处:

  • 隔离性:每个项目有独立的 BMAD 配置,互不干扰
  • 版本控制:项目级配置可纳入 Git 管理
  • 团队协作:团队成员 clone 项目即获得相同配置
  • 多项目支持:不同项目可使用不同版本的 BMAD

安装后的目录结构:

项目目录结构

BMAD 配置目录 .bmad 包含以下子模块:

BMAD 目录结构


确保已安装:

  • Node.js (推荐 v18+)
  • Bun 或 npm/npx
  • Claude Code 或其他支持的 IDE

在你的项目根目录下运行:

Terminal window
bunx bmad-method@alpha install

启动后你将看到 BMAD 的 ASCII Logo:

██████╗ ███╗ ███╗ █████╗ ██████╗ ™
██╔══██╗████╗ ████║██╔══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝
Build More, Architect Dreams v6.0.0-alpha.16

? Installation directory: /Users/vsai/WorkSpaces/vs/vs-ai-agents
? Install to this directory? Yes

选择建议:直接使用当前项目目录,回答 Yes 确认安装。


4.2 BMad Optimized Builder (BoMB) 模块配置

Section titled “4.2 BMad Optimized Builder (BoMB) 模块配置”
? Where do custom agents and workflows get stored? bmad-custom-src
? Where do custom modules get stored? bmad-custom-modules-src
配置项推荐值说明
Custom agents/workflowsbmad-custom-src存放自定义 Agent 和工作流
Custom modulesbmad-custom-modules-src存放自定义模块

? What is the name of your game project? vs-ai-agents
? Where should Sprint Artifacts be stored? docs/sprint-artifacts
? What is your game development experience level? Expert
? Which game development framework or engine? Unity, Unreal Engine, Godot, Custom / Other
配置项可选值说明
项目名称自定义你的游戏项目名称
Sprint Artifacts 目录docs/sprint-artifacts存放 stories、epics、临时上下文等
经验级别Beginner / Intermediate / Expert影响 Agent 解释概念的详细程度
游戏引擎Unity / Unreal / Godot / Custom选择你使用的游戏引擎

? What is the title of your project? vs-ai-agents
? What is your technical experience level? Expert - Deep technical knowledge
? Where should Sprint Artifacts be stored? docs/sprint-artifacts
? Enable Test Architect Playwright MCP capabilities? Yes
? Are you using playwright-utils in your project? Yes
配置项推荐值说明
项目标题你的项目名用于 Agent 上下文
技术经验级别按实际选择仅影响解释方式,不影响文档内容
Playwright MCPYes启用测试架构师的自动化测试能力
playwright-utils按需选择使用 @seontechnologies/playwright-utils 的高级功能

注意:技术经验级别只影响 Agent 与你交流时的措辞风格,文档内容始终保持简洁以优化 LLM 效率。


4.5 Codex CLI 提示安装位置(重要)

Section titled “4.5 Codex CLI 提示安装位置(重要)”

这是整个安装过程中最关键的选择之一:

? Where would you like to install Codex CLI prompts?
> Project-specific - Recommended for real work (requires CODEX_HOME=<project-dir>/.codex)
Global - Simple for single project (~/.codex/prompts)

强烈推荐:选择 Project-specific

方式优点缺点
Project-specific项目隔离、版本可控、团队共享需配置环境变量
Global配置简单只能服务单一项目,引用固定 .bmad 路径

选择 Project-specific 后,需要在 ~/.bashrc~/.zshrc 中添加:

Terminal window
alias codex='CODEX_HOME="$PWD/.codex" codex'

然后执行:

Terminal window
source ~/.bashrc # 或 source ~/.zshrc

这个 alias 会让 Codex CLI 自动使用当前工作目录下的 .codex 配置。


安装过程中你会看到各模块的安装进度:

✔ Core installed
✔ Dependencies resolved
✔ Module installed: bmb # BMad Optimized Builder
✔ Module installed: bmgd # BMad Game Development
✔ Module installed: bmm # BMad Method
✔ Module installed: cis # Creative Innovation Suite
✔ Module configurations generated
✔ Manifests generated: 61 workflows, 21 agents, 5 tasks, 1 tools, 88 files
✔ Configured 18 IDEs
模块全称功能
bmbBMad Optimized BuilderAgent 和工作流构建器
bmgdBMad Game Development游戏开发专用 Agent
bmmBMad Method敏捷开发核心方法论
cisCreative Innovation Suite创意创新工具套件
Compiled agents:
- bmad-master, bmad-builder
- game-architect, game-designer, game-dev, game-scrum-master
- analyst, architect, dev, pm, sm
- quick-flow-solo-dev, tea, tech-writer, ux-designer
- brainstorming-coach, creative-problem-solver
- design-thinking-coach, innovation-strategist
- presentation-master, storyteller

安装完成后,会提示配置 AgentVibes 语音合成:

🎙️ AgentVibes TTS Setup
AgentVibes provides voice synthesis for BMAD agents with:
• ElevenLabs AI (150+ premium voices)
• Piper TTS (50+ free voices)

如果选择安装,会自动配置:

  • 34 个 slash commands
  • TTS 脚本
  • 16 首背景音乐
  • 个性化模板
Terminal window
# 启动带 MCP 的 Claude Code
claude --mcp-config .mcp.json
# AgentVibes 命令
/agent-vibes:list # 查看所有可用声音
/agent-vibes:switch <name> # 切换声音
/agent-vibes:personality <style> # 设置个性风格

your-project/
├── .bmad/
│ ├── _cfg/ # 配置文件
│ ├── bmb/ # Builder 模块
│ ├── bmgd/ # 游戏开发模块
│ ├── bmm/ # Method 核心模块
│ ├── cis/ # 创意创新模块
│ ├── core/ # 核心 Agent
│ └── docs/ # 文档
├── .claude/ # Claude Code 配置
├── .codex/ # Codex CLI 配置(项目级安装)
├── bmad-custom-src/ # 自定义 Agent
├── bmad-custom-modules-src/ # 自定义模块
└── docs/
└── sprint-artifacts/ # Sprint 产物

安装完成后,可以通过以下方式验证:

Terminal window
claude --mcp-config .mcp.json

进入后尝试:

/bmad-bmm-agents-pm # 激活 PM Agent
Terminal window
ls .bmad/core/agents/
ls .bmad/bmm/agents/

Terminal window
bunx bmad-method@alpha install --update

每个项目独立运行安装命令即可,项目级配置互不影响。

确保已配置 CODEX_HOME 环境变量,并在项目目录下运行 codex


配置项推荐选择
安装位置项目目录(非 Home 目录)
Codex 安装Project-specific
技术级别按实际选择,不影响文档质量
Playwright MCP启用(如需自动化测试)
AgentVibes按需安装

BMAD 的项目级安装方式让你能够:

  • 在不同项目中使用不同配置
  • 将 AI Agent 配置纳入版本控制
  • 与团队成员共享一致的开发环境

开始使用 BMAD,让 AI Agent 成为你的敏捷开发伙伴!


智能制造中的 AI Agent:应用场景与发展趋势深度分析

智能制造与AI Agent

AI Agent(智能代理)正在重塑制造业格局,引领新一轮工业变革。进入 2025 年,这些自主智能系统已成为智能工厂的核心驱动力,实现前所未有的近自主化运营能力。


制造业 AI 市场正呈现爆发式增长:

  • 市场规模:预计 2030 年将达到 1550 亿美元,较 2025 年的 340 亿美元大幅增长
  • 复合增长率:35.3% 的年复合增长率
  • 经济影响:AI 预计将为制造业贡献高达 15.7 万亿美元
  • 投资热潮:重大收购包括英伟达 7 亿美元收购 Run:ai、西门子 100 亿美元收购 Altair Engineering

AI Agent 是能够感知环境、自主决策并执行行动的智能软件系统。在制造场景中,它们以两种形态存在:

  • 监控和分析生产系统数据
  • 协调不同软件平台之间的交互
  • 提供实时洞察和决策建议
  • 控制工厂车间的机器人系统
  • 自主导航物理空间
  • 执行质量检测和装配任务

2026 年前改变制造业的六大 AI Agent 趋势

Section titled “2026 年前改变制造业的六大 AI Agent 趋势”

AI Agent 持续监控外部因素——关税政策、贸易协定、天气变化——并与企业系统集成:

  • 在影响发生前预测供应链中断
  • 在复杂地缘政治环境中平衡成本与风险
  • 自动化供应商切换和库存优化

研究显示 69% 的企业领导者对 ERP 投资持中立或负面态度,AI Agent 通过以下方式释放隐藏价值:

  • 向一线团队提供个性化洞察
  • 通过优化客户关系推动营收增长
  • 弥合数据采集与可执行情报之间的鸿沟

制造业正面临严峻的员工退休潮。多模态 AI Agent 通过以下方式应对:

  • 通过对话或语音界面即时获取机构知识
  • 加速维修周转时间
  • 让初级技术员也能完成复杂任务

AI Agent 通过以下方式增强工作场所安全:

  • 实时监控车间活动
  • 危险情况检测与即时预警
  • 事故调查支持
  • 高风险环境合规监控

非计划停机每小时造成约 12.5 万美元损失。AI Agent 通过以下方式将其最小化:

  • 持续监控资产健康状态
  • 自适应维护规划
  • 缩短平均修复时间
  • 故障预测与预防

AI Agent 自动化日常起草和审批流程,解决财富 2000 强企业约 8.6% 的价值流失问题:

  • 释放管理者精力专注战略谈判
  • 持续合规监控
  • 风险管理自动化

制造业中规模最大的 AI 应用领域:

  • 设备停机时间减少最高 50%
  • 维护成本降低 30%
  • 分析传感器数据检测异常
  • 在故障发生前预测设备问题

AI 驱动的计算机视觉系统:

  • 实时识别制造缺陷
  • 捕捉人工检验员可能遗漏的问题
  • 减少浪费并防止高成本召回
  • 实现 100% 检测覆盖率

AI Agent 通过分析以下因素进行需求预测:

  • 销售趋势与市场状况
  • 消费者行为模式
  • 实时货运跟踪
  • 全网络库存优化

具备 AI 能力的协作机器人(cobots):

  • 执行精密装配和包装任务
  • 自动适应不同产品
  • 与人类工人安全协作
  • 处理生产中的更大变异性

先进制造环境现已部署协调式多代理系统:

  • 车队协调:多台机器人以同步模式工作
  • 分布式决策:代理间通信以优化整体系统性能
  • 空间 AI:自主移动机器人(AMR)组织库存和完成订单
  • 自适应制造:机器人实时适应环境变化

尽管潜力巨大,AI Agent 的采用仍面临多重障碍:

  • 为自主决策建立问责机制
  • 确保代理推理的透明度
  • 建立操作员对 AI 建议的信心
  • 与遗留系统的集成
  • 数据质量与可访问性
  • 实时处理需求
  • 员工培训与技能再造
  • 变革管理
  • 投资回报率论证

对于希望拥抱 AI Agent 的制造商:

  1. 从高影响力场景入手:聚焦预测性维护和质量控制以获得最快投资回报
  2. 构建数据基础设施:确保干净、可访问的数据作为根基
  3. 投资系统集成:将 AI Agent 与现有 MES 和 ERP 系统连接
  4. 发展人机协作模式:明确定义代理与员工之间的角色分工
  5. 渐进式扩展:从试点项目逐步推进到企业级部署

随着 2025 年及以后的发展,AI Agent 将持续从实验性技术演进为制造业核心基础设施。成功整合这些系统的企业将通过以下方式获得显著竞争优势:

  • 提升运营效率
  • 改善产品质量
  • 降低成本与停机时间
  • 增强劳动生产率

智能制造革命不是即将到来——它已经来临。问题不再是是否采用 AI Agent,而是你能多快、多有效地将其整合到运营中。


你对哪些 AI Agent 应用场景最感兴趣?欢迎在评论区分享你的想法和经验!


Claude Chrome 扩展:普通人也可以用强大的 Claude Code 处理日常工作

Claude Chrome 浏览器扩展:Claude Code 的 ChatGPT 时刻来了

当 Claude Code 不再只是对话框,而是真正走进你的 Chrome 浏览器


引言:属于 Anthropic 的”ChatGPT 时刻”

Section titled “引言:属于 Anthropic 的”ChatGPT 时刻””

还记得 ChatGPT 刚发布时的震撼吗?那一刻,AI 从实验室走向了千家万户。

现在,Anthropic 正在创造属于自己的”ChatGPT 时刻”——不是通过聊天框,而是通过 Claude Chrome 扩展,让 AI 真正成为你浏览器里的”数字员工”。

Claude Chrome 扩展 把 Claude Code 的强大能力带给了普通用户——你不需要懂代码,不需要了解 API,只需要在浏览器里告诉 Claude 你想做什么,它就能帮你完成。

这不仅仅是一个浏览器插件,这是 AI 走进日常工作流程的重要一步。


通过 Claude Chrome 扩展,你可以直接在浏览器中告诉 Claude 你想做什么,它就能帮你完成。

Claude Chrome 扩展让 Claude 能够:

  • 导航网页:自动打开和浏览任何网站
  • 点击按钮:模拟用户操作,执行点击动作
  • 填写表单:自动填充各种表单和输入框
  • 后台执行任务:你可以继续做其他事,Claude 在后台帮你干活
  • 定时执行工作流:设置每日或每周的自动化任务

开发者可以在 Claude Code 中直接连接 Chrome,实现:

  • 在浏览器中测试和迭代代码
  • 自动化前端测试流程
  • 开发与调试的完美结合

Claude Chrome 扩展能够操作你每天使用的各种应用:

  • Google Drive 文件整理
  • 日历管理和会议准备
  • CRM 系统数据录入
  • 邮件清理和分类

Claude Chrome 扩展启动一个工作流程后,你可以继续做其他事:

  • Claude 会在后台默默完成任务
  • 不占用你的注意力
  • 结果自动同步

Claude Chrome 扩展设置周期性任务,无需手动触发:

  • 每日数据报告生成
  • 每周进度更新
  • 定期数据同步和备份

场景Claude Chrome 扩展 能做什么
分析仪表盘数据自动导航到分析平台,提取关键指标,整理成报告
整理 Google Drive扫描文件,创建文件夹结构,自动分类归档
日历准备读取日程,从邮件中提取上下文,标记需要准备的会议
跨站产品比较同时读取多个产品页面,统一格式对比,生成对比表
CRM 通话记录自动匹配会议参与者和联系人,生成活动日志
清理推广邮件扫描收件箱,识别营销邮件和新闻通讯,批量处理

Anthropic vs OpenAI:竞争格局正在改变

Section titled “Anthropic vs OpenAI:竞争格局正在改变”

Claude Chrome 扩展的发布,是 Anthropic 战略的重要一步。让我们看看最新的市场数据:

指标AnthropicOpenAI
2024年营收10亿美元37亿美元
2025年预测70亿美元+127亿美元
增长速度8000%(21个月)243%
指标ClaudeChatGPT
月活跃用户1890万8亿周活跃
企业客户占比70-80%-

差距正在快速缩小

  • 2024年初,OpenAI 的规模是 Anthropic 的 15倍
  • 2024年底,这个差距缩小到 5倍
  • Anthropic 的 ARR 已达到 OpenAI 的 40%

企业市场是 Anthropic 的强项

  • Claude 的消费端用户只有 ChatGPT 的 5%
  • 但 ARR 已达 40%,说明企业客户贡献巨大
  • 企业客户意味着更稳定的收入和更高的客单价

ChatGPT 的成功在于它让普通人与 AI 对话变得触手可及。Claude Chrome 扩展做的是同样的事,但方向不同:

  1. 从对话到行动:ChatGPT 让人们学会和 AI 对话,Claude 让 AI 真正帮你做事
  2. 从开发者到普通用户:Claude Code 的能力,现在人人都能用
  3. 从单点工具到全局助手:不再是一个网页应用,而是贯穿整个浏览器体验

这正是 Anthropic 需要的突破口——用差异化的产品体验,在 ChatGPT 主导的市场中开辟新赛道。


  1. 前往 Chrome 网上应用店 安装扩展

  1. 点击扩展图标,点击”打开 Claude” 开始使用
  2. 从简单任务开始,逐步探索更复杂的工作流

也可配合 Claude Code 或 Claude Desktop 使用

Claude Chrome 扩展虽然强大,但请注意:

  • 从信任的网站开始使用
  • 涉及财务、密码等敏感操作时要格外谨慎
  • 如发现异常行为,及时暂停并反馈

Claude Chrome 扩展代表了 AI 发展的新方向:

  • 不只是聊天,而是真正的任务执行
  • 不只是开发者工具,而是人人可用
  • 不只是功能叠加,而是工作流程的革命

对于 Anthropic 来说,这可能是改变市场格局的关键一步。虽然 ChatGPT 在用户数量上仍遥遥领先,但 Anthropic 正在用不同的方式追赶——更深入企业场景,更贴近实际工作。

AI 竞争的下半场,不再只看谁的对话更聪明,而是看谁能真正帮用户做事。


Claude Code + MCP:几分钟内自动发布文章到微信公众号

Claude Code MCP 微信自动化

想象一下,从一个简单的想法到一篇经过充分研究、专业撰写的文章发布到你的微信公众号——整个过程只需几分钟,而且不用离开终端?

这不是科幻小说。通过 Claude Codewenyan-mcp(模型上下文协议)服务器,你可以创建一个端到端的内容自动化流水线:

  • 使用网络搜索研究主题
  • 生成高质量的中英双语文章
  • 自动发布到微信草稿箱
  • 应用精美的格式主题

让我来展示具体的配置方法。


开始之前,请确保你有:

  1. Claude Code 已安装(推荐 v2.0+)
  2. Docker 在你的机器上运行
  3. 微信公众号 及其 API 凭据(AppID 和 AppSecret)

如果你还没有安装 Claude Code:

Terminal window
# 使用 npm
npm install -g @anthropic-ai/claude-code
# 或使用 Homebrew (macOS)
brew install claude-code

验证安装:

Terminal window
claude --version
# Claude Code v2.0.74

第二步:配置 wenyan-mcp 连接微信

Section titled “第二步:配置 wenyan-mcp 连接微信”

魔法发生在 MCP(模型上下文协议)——这是一个允许 Claude 与外部工具和服务交互的标准。

在你的 Claude Code MCP 设置中添加以下配置(~/.claude/settings.json 或项目级别的 .claude/settings.local.json):

{
"mcpServers": {
"wenyan-mcp": {
"name": "公众号助手",
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"-v",
"/你的图片路径:/mnt/host-downloads",
"-e",
"WECHAT_APP_ID=你的微信AppID",
"-e",
"WECHAT_APP_SECRET=你的微信AppSecret",
"-e",
"HOST_IMAGE_PATH=/你的图片路径",
"caol64/wenyan-mcp"
]
}
}
}

配置说明:

参数描述
WECHAT_APP_ID你的微信公众号 AppID
WECHAT_APP_SECRET你的微信公众号 AppSecret
HOST_IMAGE_PATH本地图片存储路径(用于封面图片)
-v 挂载将本地图片目录映射到容器

提示:微信公众平台获取你的 AppID 和 AppSecret。


这个工作流的关键是在 issue 文件 中定义你的任务。这告诉 Claude 你想要完成什么。

创建类似 engineering/00-issues/my-article-task.md 的文件:

---
slug: engineering/00-issues/my-article-task
---
# Issue: 撰写关于 [你的主题] 的博客
## 描述
需要涵盖的要点:
- 要点 1
- 要点 2
- 要点 3
## 要求
- 语言:简体中文、英文
- 使用 `wenyan-mcp` 发布(简体中文)
- 研究最新趋势和数据

现在是激动人心的部分。启动 Claude Code 并引用你的任务:

Terminal window
claude

然后在 Claude Code 提示符中:

Execute @engineering/00-issues/my-article-task.md

启动 Claude Code


Claude 在网上搜索相关的最新信息:

网络搜索

Claude 获取并分析多个来源以创建全面的内容:

浏览文章

Claude 生成文章并直接发布到你的微信草稿箱:

任务完成

打开你的微信公众号管理后台——文章已经在草稿箱中等待:

微信草稿箱

文章预览


wenyan-mcp 服务器支持多种精美主题:

主题风格
default简洁、极简
orangeheart温暖的橙色点缀
rainbow彩色标题
lapis专业蓝色
pie活泼设计
maize金色高亮
purple优雅紫色
phycat科技风格

发布时指定你喜欢的主题:

发布到微信时使用 orangeheart 主题

┌─────────────────────────────────────────────────────────────┐
│ 你的工作流 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 1. 定义任务 📝 在 .md 文件中创建任务 │
│ ↓ │
│ 2. 启动 Claude Code 💻 执行任务 │
│ ↓ │
│ 3. 自动研究 🔍 网络搜索与分析 │
│ ↓ │
│ 4. 生成内容 ✍️ 双语文章 │
│ ↓ │
│ 5. 发布到微信 📱 直接到草稿箱 │
│ │
└─────────────────────────────────────────────────────────────┘

在任务文件中指定语言:

语言:简体中文、英文

Claude 会自动生成两个版本。

在任务中引用本地图片:

## 截图
![步骤 1](path/to/screenshot1.png)

指定你想要保存博客文件的位置:

输出到:src/content/docs/blog/my-topic/

文章首先进入你的草稿箱——你总是有机会在最终发布给订阅者之前进行审核和编辑。


问题解决方案
Docker 连接失败确保 Docker Desktop 正在运行
微信 API 错误验证 AppID/AppSecret 是否正确
图片上传失败检查 HOST_IMAGE_PATH 是否正确映射
找不到 MCP 服务器运行 claude mcp list 验证配置

这个工作流将内容创作从繁琐的多步骤过程转变为流畅的自动化流水线。使用 Claude Code + wenyan-mcp,你可以:

  • 节省数小时的研究和写作时间
  • 保持一致性跨双语内容
  • 直接发布无需复制粘贴的繁琐操作
  • 专注于创意而不是执行细节

内容创作的未来已经到来——它就在你的终端里。


日报 - 2025-12-17 Accenture and Anthropic partnership

Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production

Section titled “Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production”
  • [[Forward Deployed Engineer]] / [[Reinvention Deployed Engineer]]

    • Approximately 30,000 Accenture professionals that will be trained on Claude, including forward deployed engineers (also known as “reinvention deployed engineers” at Accenture) who help embed Claude within client environments to scale enterprise AI adoption. This will comprise one of the largest ecosystems of Claude practitioners in the world. These teams combine Accenture’s AI, industry, and function expertise—along with deep partnerships with leading cloud providers—with Anthropic’s Claude models and Claude Code, plus its proven playbooks for regulated industries.
  • [[Methodology]]

    • measure value and drive large-scale AI adoption across their engineering organizations
      • quantify real productivity gains and ROI
      • workflow redesign for AI-first development teams
      • change management and training that keeps pace as AI evolves
  • [[Customization]]

    • Anthropic and Accenture will also co-invest in a Claude Center of Excellence inside Accenture, creating a dedicated environment for the joint design of new AI offerings tailored to specific enterprise needs, industry requirements, and regulatory contexts.

Source: Accenture and Anthropic launch multi-year partnership to move enterprises from AI pilots to production

Source: Spring Research

BMAD v6 安装更新:模块化 + AgentVibes “会说话”的开发体验

v6 的核心变化就是“目录/工件体系重做” + “语音能力(AgentVibes)正式集成进 BMAD 工作流”


1)先说结论:v6 相比 v4,最“能感知”的两点变化

Section titled “1)先说结论:v6 相比 v4,最“能感知”的两点变化”

变化 A:目录从“单核”升级为“Core + Modules + Manifests”的工程化结构。 v4 的用户指南里,个性化偏好(比如技术栈、命名规则)是放在 .bmad-core/data/technical-preferences.md 里管理的。

而 v6(Alpha)的官方定位是“Agent-as-Code + 可复现流水线”,并明确给出 workspace anatomy.bmad/ 用来放 profiles/blueprints/runs 等“可追踪工件”。

变化 B:AgentVibes 被当成“第一方体验层”接进来:让 BMAD agent 能在 Claude Code 里说话、切声线、用 slash command / MCP 控制。 AgentVibes 的官方说明就直白:最初就是为了给 Claude Code “加声音”,并且提供 MCP(自然语言控制)和 slash commands 两套控制方式。


2)目录结构:v4 的“.bmad-core” vs v6 的“.bmad + modules + artifacts

Section titled “2)目录结构:v4 的“.bmad-core” vs v6 的“.bmad + modules + artifacts””

按日志里的安装结果来拆

  • 核心目录:.bmad-core/ 用来放偏好、数据、模板等;例如 v4 用户指南明确提到偏好文件位置:.bmad-core/data/technical-preferences.md
  • Web Bundle 玩法:dist/teams/... 典型是复制 dist/teams/team-fullstack.txt 去 Web UI/Claude/GPT 里当“团队提示词”。
  • 更像“提示词框架 + 目录约定”,工程化程度够用,但**“产物可追踪/可复现”不是第一目标**。

v6(你这次安装体现出来的结构变化)

Section titled “v6(你这次安装体现出来的结构变化)”

从日志看,v6 安装完成后最关键的“落盘结构”是:

  • 根目录统一落在:<project>/.bmad(你这次是 /Users/vsai/.../vs-ai-agents/.bmad

  • 模块化安装:Core + bmb + bmgd + bmm + cis

    • Core:安装核心 agent(比如 bmad-master.md
    • bmb:Builder/Factory(自定义 agent、workflow、module 的“工厂”)
    • bmm:Method(Analyst/PM/Dev/SM/UX 等完整团队)
    • bmgd:Game Dev(并且会把跨模块 workflows “vendoring”进来)
    • cis:Creative Innovation Suite

同时,它还做了 v4 时代不太“显性”的几件事:

  • 编译/生成工件(manifests):日志里直接报了 “61 workflows、21 agents、5 tasks、1 tools…”——这就是 v6 走向“可版本化/可追踪”的证据之一(工程化明显更强)。这一点也符合 v6 Alpha 强调的“可复现、可审计、可 diff”的方向。

  • Sprint 产物目录变成安装期配置项:你选择了 docs/sprint-artifacts,安装器还会自动创建(便于团队落地敏捷节奏)。

  • 自定义扩展目录被显式分离出来

    • bmad-custom-src:自定义 agents / workflows
    • bmad-custom-modules-src:自定义 modules 这其实是在逼你把“官方模块”和“自定义资产”隔离,方便升级/合并。
  • Sidecar memory 目录:日志里还替换了 {agent_sidecar_folder}{project-root}/.bmad-user-memory(典型用于 agent 的“旁路记忆/运行痕迹”,也更符合 v6 的“工件化”理念)。

v4 更像“提示词框架 + 目录规范”;v6 更像“带构建产物与可追踪工件的 agent 工程系统”。


3)AgentVibes 集成:从“能用”到“好用”的关键升级

Section titled “3)AgentVibes 集成:从“能用”到“好用”的关键升级”

日志里最“出圈”的部分其实是这一段:

  • 安装器提示 “AgentVibes TTS Injection Summary”
  • .../.bmad/core/agents/bmad-master.md 做了 TTS 注入
  • 备份放在 ~/.bmad-tts-backups/
  • 然后一键拉起 AgentVibes 安装器,往项目的 .claude/ 里塞了 slash commands、TTS hooks、personality templates、背景音乐等

这套设计跟 AgentVibes 的官方说明高度一致:

  • 它提供 MCP(自然语言控制):让助手不必记 slash commands,也能“说:换成 Aria 声线”。
  • 同时也提供 slash commands(零 token 开销),例如 /agent-vibes:list/agent-vibes:switch Aria
  • 多 TTS provider 抽象:Piper、macOS Say、ElevenLabs 都在同一个能力层里(你的日志里也体现了 macOS Say 的快速安装路径)。
  • 安装结构明确写了:会把 commands/hooks/personalities/plugins 放进 .claude/

因为 v6 的方向是“多 agent、多 workflow、多工件”,人的注意力会被大量“过程信息”打散。TTS 反而能带来两个好处:

  1. 状态反馈更强:开始做什么、做完了什么,耳朵一听就知道,不用盯屏幕。
  2. 角色感更强:PM/SM/Architect/Dev 这类角色切换,会更有“团队协作”的沉浸感(AgentVibes 的 BMAD 集成也在强调这点)。

  1. 把 v4 的偏好文件迁移思路定好 v4 偏好在 .bmad-core/data/technical-preferences.md。 v6 更强调 workspace + policies + manifests(.bmad/ 下的结构)。 建议你做法是:保留 v4 偏好内容作为“团队约定”,再逐步映射到 v6 的 profile/policy 体系(不要一次性硬迁,容易丢语义)。

  2. 把“自定义资产”放进你已经配置好的两个目录

  • agent / workflow → bmad-custom-src
  • module → bmad-custom-modules-src 这样未来升级 v6 alpha/beta 时,冲突会少很多。
  1. AgentVibes 用法上,建议默认“slash commands 优先” AgentVibes 官方也强调:MCP 更方便,但会吃上下文 token;slash commands 更省。 也就是说:日常用 / 命令,偶尔再用自然语言 MCP,体验和成本会比较平衡。

Terminal window
bunx bmad-method@alpha install
██████╗ ███╗ ███╗ █████╗ ██████╗
██╔══██╗████╗ ████║██╔══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝
Build More, Architect Dreams v6.0.0-alpha.16
════════════════════════════════════════════════════════════════════════════════
BMAD™ Setup
Build More, Architect Dreams v6.0.0-alpha.16
════════════════════════════════════════════════════════════════════════════════
? Installation directory: /Users/vsai/WorkSpaces/vs/vs-ai-agents
Resolved installation path: /Users/vsai/WorkSpaces/vs/vs-ai-agents
Directory exists and contains 1 item(s)
? Install to this directory? Yes
────────────────────────────────────────────────────────────────────────────────
BMAD™ Core Configuration
Configure the core settings for your BMAD™ installation.
These settings will be used across all modules and agents.
────────────────────────────────────────────────────────────────────────────────
██████╗ ███╗ ███╗ █████╗ ██████╗
██╔══██╗████╗ ████║██╔══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝
Build More, Architect Dreams v6.0.0-alpha.16
════════════════════════════════════════════════════════════════════════════════
BMAD™ Installation
Version 6.0.0-alpha.16
════════════════════════════════════════════════════════════════════════════════
────────────────────────────────────────────────────────────────────────────────
BMad Optimized Builder (BoMB) Module Configuration
Configure the settings for the BoMB Factory!
The agent, workflow and module builder for BMAD™
────────────────────────────────────────────────────────────────────────────────
? Where do custom agents and workflows get stored? bmad-custom-src
? Where do custom modules get stored? bmad-custom-modules-src
────────────────────────────────────────────────────────────────────────────────
BMad Game Development Module
Configure the settings for the BMad Game Development module
────────────────────────────────────────────────────────────────────────────────
? What is the name of your game project? vs-ai-agents
? Where should Sprint Artifacts be stored (stories, epics, temp context, etc...)? docs/sprint-artifacts
? What is your game development experience level? Expert - Experienced game developer, be direct and technical
? Which game development framework or engine do you want to install support for? Unity, Unreal Engine, Godot, Custom / Other
────────────────────────────────────────────────────────────────────────────────
BMad Method™: Breakthrough Method of Agile-Ai Driven-Dev
Agent and Workflow Configuration for this module
────────────────────────────────────────────────────────────────────────────────
? What is the title of your project you will be working on? vs-ai-agents
? What is your technical experience level?
This affects how agents explain concepts to you (NOT document content).
Documents are always concise for LLM efficiency. Expert - Deep technical knowledge, be direct and technical
? Where should Sprint Artifacts be stored (sprint status, stories, story context, temp context, etc...)? docs/sprint-artifacts
? Enable Test Architect Playwright MCP capabilities (healing, exploratory, verification)? You have to setup your MCPs yourself; refer to
test-architecture.md for hints. Yes
? Are you using playwright-utils (@seontechnologies/playwright-utils) in your project?
This adds fixture-based utilities for auth, API requests, network recording, polling, intercept, recurse, logging, file download handling,
and burn-in.
You must install packages yourself, or use test architect's *framework command. Yes
────────────────────────────────────────────────────────────────────────────────
Creative Innovation Suite (CIS) Module
No Configuration needed - uses Core Config only.
────────────────────────────────────────────────────────────────────────────────
Configuring claude-code...
Configuring codex...
? Where would you like to install Codex CLI prompts? Project-specific - Recommended for real work (requires CODEX_HOME=<project-dir>/.codex)
══════════════════════════════════════════════════════════════════════
Project-Specific Codex Configuration
══════════════════════════════════════════════════════════════════════
Prompts will be installed to: <project>/.codex/prompts
⚠️ REQUIRED: You must set CODEX_HOME to use these prompts
Add this alias to your ~/.bashrc or ~/.zshrc:
alias codex='CODEX_HOME="$PWD/.codex" codex'
After adding, run: source ~/.bashrc (or source ~/.zshrc)
(The $PWD uses your current working directory)
This tells Codex CLI to use prompts from this project instead of ~/.codex
══════════════════════════════════════════════════════════════════════
? Proceed with this installation option? No
Let's choose a different installation option.
? Where would you like to install Codex CLI prompts? Global - Simple for single project (~/.codex/prompts, but references THIS project only)
══════════════════════════════════════════════════════════════════════
IMPORTANT: Codex Configuration
══════════════════════════════════════════════════════════════════════
/prompts installed globally to your HOME DIRECTORY.
⚠️ These prompts reference a specific .bmad path
To use with other projects, you'd need to copy the .bmad dir
✓ You can now use /commands in Codex CLI
Example: /bmad-bmm-agents-pm
Type / to see all available commands
══════════════════════════════════════════════════════════════════════
? Proceed with this installation option? No
Let's choose a different installation option.
? Where would you like to install Codex CLI prompts? Project-specific - Recommended for real work (requires CODEX_HOME=<project-dir>/.codex)
══════════════════════════════════════════════════════════════════════
Project-Specific Codex Configuration
══════════════════════════════════════════════════════════════════════
Prompts will be installed to: <project>/.codex/prompts
⚠️ REQUIRED: You must set CODEX_HOME to use these prompts
Add this alias to your ~/.bashrc or ~/.zshrc:
alias codex='CODEX_HOME="$PWD/.codex" codex'
After adding, run: source ~/.bashrc (or source ~/.zshrc)
(The $PWD uses your current working directory)
This tells Codex CLI to use prompts from this project instead of ~/.codex
══════════════════════════════════════════════════════════════════════
? Proceed with this installation option? Yes
Continuing installation... Created customize: core-bmad-master.customize.yaml
Built agent: bmad-master.md
Core installed
Dependencies resolved
Installing module: bmb... Created customize: bmb-bmad-builder.customize.yaml
Compiled agent: bmad-builder -> agents/bmad-builder.md
Module installed: bmb
Installing module: bmgd...
Vendoring cross-module workflows for bmgd...
Processing: game-architect.agent.yaml
Vendoring: bmm/workflows/4-implementation/correct-course bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Processing: game-dev.agent.yaml
Vendoring: bmm/workflows/4-implementation/dev-story bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Vendoring: bmm/workflows/4-implementation/code-review bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Source workflow not found: /private/tmp/bunx-501-bmad-method@alpha/node_modules/bmad-method/src/modules/bmm/workflows/4-implementation/story-done
Processing: game-scrum-master.agent.yaml
Vendoring: bmm/workflows/4-implementation/sprint-planning bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Source workflow not found: /private/tmp/bunx-501-bmad-method@alpha/node_modules/bmad-method/src/modules/bmm/workflows/4-implementation/epic-tech-context
Vendoring: bmm/workflows/4-implementation/create-story bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Source workflow not found: /private/tmp/bunx-501-bmad-method@alpha/node_modules/bmad-method/src/modules/bmm/workflows/4-implementation/story-context
Source workflow not found: /private/tmp/bunx-501-bmad-method@alpha/node_modules/bmad-method/src/modules/bmm/workflows/4-implementation/story-ready
Vendoring: bmm/workflows/4-implementation/retrospective bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Vendoring: bmm/workflows/4-implementation/correct-course bmgd/workflows/bmgd
Updated config_source to: .bmad/bmgd/config.yaml
Workflow vendoring complete
Created customize: bmgd-game-architect.customize.yaml
Compiled agent: game-architect -> agents/game-architect.md
Created customize: bmgd-game-designer.customize.yaml
Compiled agent: game-designer -> agents/game-designer.md
Created customize: bmgd-game-dev.customize.yaml
Compiled agent: game-dev -> agents/game-dev.md
Created customize: bmgd-game-scrum-master.customize.yaml
Compiled agent: game-scrum-master -> agents/game-scrum-master.md
Module installed: bmgd
Installing module: bmm... Created customize: bmm-analyst.customize.yaml
Compiled agent: analyst -> agents/analyst.md
Created customize: bmm-architect.customize.yaml
Compiled agent: architect -> agents/architect.md
Created customize: bmm-dev.customize.yaml
Compiled agent: dev -> agents/dev.md
Created customize: bmm-pm.customize.yaml
Compiled agent: pm -> agents/pm.md
Created customize: bmm-quick-flow-solo-dev.customize.yaml
Compiled agent: quick-flow-solo-dev -> agents/quick-flow-solo-dev.md
Created customize: bmm-sm.customize.yaml
Compiled agent: sm -> agents/sm.md
Created customize: bmm-tea.customize.yaml
Compiled agent: tea -> agents/tea.md
Created customize: bmm-tech-writer.customize.yaml
Compiled agent: tech-writer -> agents/tech-writer.md
Created customize: bmm-ux-designer.customize.yaml
Compiled agent: ux-designer -> agents/ux-designer.md
Module installed: bmm
Installing module: cis... Created customize: cis-brainstorming-coach.customize.yaml
Compiled agent: brainstorming-coach -> agents/brainstorming-coach.md
Created customize: cis-creative-problem-solver.customize.yaml
Compiled agent: creative-problem-solver -> agents/creative-problem-solver.md
Created customize: cis-design-thinking-coach.customize.yaml
Compiled agent: design-thinking-coach -> agents/design-thinking-coach.md
Created customize: cis-innovation-strategist.customize.yaml
Compiled agent: innovation-strategist -> agents/innovation-strategist.md
Created customize: cis-presentation-master.customize.yaml
Compiled agent: presentation-master -> agents/presentation-master.md
Created customize: cis-storyteller.customize.yaml
Compiled agent: storyteller -> agents/storyteller.md
Module installed: cis
Module configurations generated
Manifests generated: 61 workflows, 21 agents, 5 tasks, 1 tools, 88 files
Configured 18 IDEs
IDE documentation copied
Running module-specific installers...🏗️ Installing Core Module...
Configuring Core for IDEs: claude-code, codex, cursor, github-copilot, antigravity, opencode, windsurf, rovo-dev, auggie, cline, crush, gemini, iflow, kilo, kiro-cli, qwen, roo, trae
Core Module installation complete
🔧 Setting up BMB Module...
Setting up custom agents at: /Users/vsai/WorkSpaces/vs/vs-ai-agents/bmad-custom-src
Created custom.yaml at /Users/vsai/WorkSpaces/vs/vs-ai-agents/bmad-custom-src/custom.yaml
Setting up custom modules at: /Users/vsai/WorkSpaces/vs/vs-ai-agents/bmad-custom-modules-src
Created modules directory at /Users/vsai/WorkSpaces/vs/vs-ai-agents/bmad-custom-modules-src
Configuring BMB for IDEs: claude-code, codex, cursor, github-copilot, antigravity, opencode, windsurf, rovo-dev, auggie, cline, crush, gemini, iflow, kilo, kiro-cli, qwen, roo, trae
BMB Module setup complete
🚀 Installing BMM Module...
Creating story directory: docs/sprint-artifacts
Configuring BMM for IDEs: claude-code, codex, cursor, github-copilot, antigravity, opencode, windsurf, rovo-dev, auggie, cline, crush, gemini, iflow, kilo, kiro-cli, qwen, roo, trae
BMM-Claude Code Specifics installed
No BMM-specific configuration for Codex
No BMM-specific configuration for Cursor
No BMM-specific configuration for GitHub Copilot
No BMM-specific configuration for Google Antigravity
No BMM-specific configuration for OpenCode
BMM-Windsurf Specifics installed
Warning: Unknown platform code 'rovo-dev'. Skipping BMM configuration.
No BMM-specific configuration for Auggie
No BMM-specific configuration for Cline
No BMM-specific configuration for Crush
No BMM-specific configuration for Gemini CLI
No BMM-specific configuration for iFlow
No BMM-specific configuration for KiloCoder
Warning: Unknown platform code 'kiro-cli'. Skipping BMM configuration.
No BMM-specific configuration for QwenCoder
No BMM-specific configuration for Roo Cline
No BMM-specific configuration for Trae
BMM Module installation complete
🎨 Installing CIS Module...
Configuring CIS for IDEs: claude-code, codex, cursor, github-copilot, antigravity, opencode, windsurf, rovo-dev, auggie, cline, crush, gemini, iflow, kilo, kiro-cli, qwen, roo, trae
CIS Module installation complete
Module-specific installers completed
Configuring agent sidecar folders...
Replacing {agent_sidecar_folder} with: {project-root}/.bmad-user-memory
Replaced 1 occurrence(s) in bmb/workflows/create-module/templates/agent.template.md
Replaced 4 occurrence(s) in bmb/docs/agents/expert-agent-architecture.md
Replaced 1 occurrence(s) in bmb/docs/agents/agent-menu-patterns.md
Updated 3 agent file(s) with 6 sidecar reference(s)
════════════════════════════════════════════════════════════════════════════════
Installation Complete
BMAD™ has been successfully installed
════════════════════════════════════════════════════════════════════════════════
╭──────────────────────────────────────────────────────────────────────────────╮
📁 Installation Path:
/Users/vsai/WorkSpaces/vs/vs-ai-agents/.bmad
📦 Modules Installed: bmb, bmgd, bmm, cis
🔧 Tools Configured: claude-code, codex, cursor, github-copilot,
antigravity, opencode, windsurf, rovo-dev, auggie, cline, crush, gemini,
iflow, kilo, kiro-cli, qwen, roo, trae
🎤 AgentVibes TTS: Enabled
╰──────────────────────────────────────────────────────────────────────────────╯
═══════════════════════════════════════════════════
AgentVibes TTS Injection Summary
═══════════════════════════════════════════════════
What is TTS Injection?
TTS (Text-to-Speech) injection adds voice instructions to BMAD agents,
enabling them to speak their responses aloud using AgentVibes.
Example: When you activate the PM agent, it will greet you with
spoken audio like "Hey! I'm your Project Manager. How can I help?"
TTS injection applied to 1 file(s):
Agent TTS (individual agent voices):
/Users/vsai/WorkSpaces/vs/vs-ai-agents/.bmad/core/agents/bmad-master.md
Backups & Recovery:
Pre-injection backups are stored in:
~/.bmad-tts-backups/
To restore original files (removes TTS instructions):
bmad-tts-injector.sh --restore /Users/vsai/WorkSpaces/vs/vs-ai-agents/.bmad
💡 BMAD agents will now speak when activated!
Ensure AgentVibes is installed: https://agentvibes.org
BMAD is ready to use!
Installation complete!
BMAD Core and Selected Modules have been installed to: /Users/vsai/WorkSpaces/vs/vs-ai-agents/.bmad
Thank you for helping test the early release version of the new BMad Core and BMad Method!
Stable Beta coming soon - please read the full README.md and linked documentation to get started!
🎙️ AgentVibes TTS Setup
AgentVibes provides voice synthesis for BMAD agents with:
ElevenLabs AI (150+ premium voices)
Piper TTS (50+ free voices)
Press Enter to start AgentVibes installer...
Need to install the following packages:
agentvibes@2.17.4
Ok to proceed? (y) y
╭──────────────────────────────────────────────────────────────────────────────╮
Agent Vibes v2.17.4 Installer Page 5/15
Installation Confirmation
https://agentvibes.org https://github.com/paulpreibisch/AgentVibes
╰──────────────────────────────────────────────────────────────────────────────╯
Play audio welcome message from Paul, creator of AgentVibes.
🎵 Listen to Welcome Message? Yes
Playing welcome message...
(Welcome demo skipped - audio file not found)
Welcome message complete!
Ready to install AgentVibes with macOS Say? Yes
.claude directory found!
Location: /Users/vsai/WorkSpaces/vs/vs-ai-agents/.claude
Installed 34 slash commands!
Installed TTS scripts!
Installed personality templates!
No plugin files found (optional)
No BMAD config files found (optional)
Installed 16 background music tracks!
Installed 6 config files!
audio-effects.cfg
╭──────────────────────────────────────────────────────────────────────────────╮
Agent Vibes v2.17.4 Installer Page 6/11
Summary: Slash Commands
https://agentvibes.org https://github.com/paulpreibisch/AgentVibes
╰──────────────────────────────────────────────────────────────────────────────╯
╭──────────────────────────────────────────────────────────────────────────────╮
Agent Vibes v2.17.4 Installer Page 7/11
Summary: Background Music
https://agentvibes.org https://github.com/paulpreibisch/AgentVibes
╰──────────────────────────────────────────────────────────────────────────────╯
╭─────────────────────────────────────────────────────── 🎵 Background Music ────────────────────────────────────────────────────────╮
16 Background Music Tracks Installed
Agents need to have fun too! 🎉 Spice things up with background music.
💡 How to control background music:
Slash Commands:
/agent-vibes:background-music on - Enable music
/agent-vibes:background-music off - Disable music
/agent-vibes:background-music set chillwave - Change track
╭──────────────────────────────────────────────────────────────────────────────╮
Agent Vibes v2.17.4 Installer Page 8/11
Summary: TTS Scripts
https://agentvibes.org https://github.com/paulpreibisch/AgentVibes
╰──────────────────────────────────────────────────────────────────────────────╯
╭────────────────────────── 🔧 TTS Scripts ──────────────────────────╮
37 TTS Hook Scripts Installed
AgentVibes is Ready!
Launch Claude Code with MCP:
claude --mcp-config .mcp.json
/agent-vibes:list - See all available voices
/agent-vibes:switch <name> - Change your voice
/agent-vibes:personality <style> - Set personality
AgentVibes installation complete

破局“无设备复现”难题:Antigravity 如何通过代码推理精准定位复杂 Bug

在软件开发中,最让工程师头疼的问题莫过于——“用户那里有问题,但我这边复现不出来”。

特别是在涉及特定硬件设备、特定用户角色或特定网络环境的场景下,复现问题往往需要昂贵的设备支持或复杂的环境搭建。然而,作为智能编码 Agent,Antigravity 展示了一种全新的解题思路:在没有物理设备的情况下,通过纯粹的代码逻辑推理和全链路数据验证,精准定位并修复 Bug。

本文将以最近解决的一个真实案例(Issue #181:医生查看患者数据时出现异常记录)为例,复盘这一“盲态解题”过程。

问题描述:某医院医生在使用 PC/平板查看特定患者数据时,意外看到了其他患者的记录。

难点

  1. 无环境:开发环境无法连接医院内网,无法登录该特定医生的账号。
  2. 无设备:无法操作医生使用的特定终端设备。
  3. 信息有限:只有一张截图和一句简短的描述:“查房时看到了别人的数据”。

传统做法通常是:借账号、找设备、连内网、尝试复现。如果复现失败,Bug 往往会被搁置。

Antigravity 的解题心法:逻辑胜于视觉

Section titled “Antigravity 的解题心法:逻辑胜于视觉”

Antigravity 无法“看”到屏幕,但它拥有透过现象看代码本质的能力。解决这一问题的核心在于三个步骤:全链路追踪 -> 代码考古 -> 数据证伪

第一步:全链路追踪(从 UI 到数据库)

Section titled “第一步:全链路追踪(从 UI 到数据库)”

既然无法操作 UI,那就阅读 UI 的构建逻辑。

  1. 前端定位: 通过搜索关键词 records.json 和分析前端代码 patient.service.ts,我们迅速锁定了导致问题的 API 调用:

    pc-doctor/src/services/patient.service.ts
    patient_user_records(...) {
    if(user_type == 'doctor') {
    // 线上医生走这个接口
    return this.http.AUTH_HTTP_GET('/api/v2/doctors/patient_user_records.json', ...);
    } else {
    // 【关键点】医生(线下)走这个通用接口
    return this.http.AUTH_HTTP_GET('/api/v2/users/records.json', ...);
    }
    }

    这一步明确了方向:医生使用的是通用的 users/records 接口,而不是专门的医生接口。

  2. 后端追溯: 顺藤摸瓜,进入 Rails 后端。从 UsersControllerUserService,最后深入到底层的 RecordService

第二步:代码考古(发现逻辑漏洞)

Section titled “第二步:代码考古(发现逻辑漏洞)”

RecordService.query_by_user_id_or_patient_id 方法中,我们发现了一段看似“贴心”实则“致命”的陈旧代码:

if patient_id.present?
if user_id.present?
# 兼容旧数据,上传参数 patient_id 为null 导致 patient_id 保存为 0
records = records.where(user_id: user_id, patient_id: [patient_id, 0])
else
# ...
end
end

逻辑推理: 这段代码的注释表明,为了兼容历史脏数据(patient_id 为 0 的记录),查询时会强行把 0 加入查询条件。 然而,当医生(User A)查看患者(Patient B)的数据时,系统查询的是: user_id = Doctor_A AND patient_id IN (Patient_B, 0)

这就意味着,只要是归属于该医生的、且 patient_id 为 0 的所有记录(可能是测试数据、也可能是未及时绑定的孤儿数据),都会混入到当前患者 Patient B 的列表中!

为了验证这个推理,Antigravity 并没有去“猜”,而是直接编写 SQL 在 SIT 环境(集成测试数据库)中进行“探针检测”。

查询 1:该医生是否真的有“幽灵数据”?

SELECT COUNT(*) FROM records WHERE user_id = 2113 AND patient_id = 0;
-- 结果:2918 条

查询 2:Bug 复现模拟

-- 模拟 Bug 查询逻辑
SELECT COUNT(*) FROM records WHERE user_id = 2113 AND patient_id IN (3563, 0);
-- 结果:3973 条

查询 3:预期正确逻辑

-- 修正后的逻辑
SELECT COUNT(*) FROM records WHERE user_id = 2113 AND patient_id = 3563;
-- 结果:1055 条

结论:数据确实发生了“泄露”。多出来的 2918 条记录正好是那些 patient_id=0 的幽灵数据,它们被错误地加载到了特定患者的页面下。

找到根因后,修复变得显而易见:在明确指定查询特定患者(patient_id present)的场景下,移除对 0 的兼容,保证数据隔离的纯粹性。

# 修复方案
if patient_id.present?
# 明确查某患者时,只查该患者,不再通过 user_id 混入脏数据
records = records.where(patient_id: patient_id)
else
# ...
end

这个案例展示了 AI Agent 在软件工程中的独特价值:

  1. 超越表面:不依赖表层的 UI 复现,直接通过代码控制流还原业务逻辑。
  2. 数据驱动:利用对数据库的直接访问能力,构建测试用例验证假设。
  3. 精准打击:在数百万行代码中,迅速定位到几行具体的逻辑判断错误。

对于 Antigravity 而言,没有“无法触达”的现场,只有尚未解析的代码逻辑。

解密 Antigravity:从截图到代码修复的 Agentic 工作流

解密 Antigravity:从截图到代码修复的 Agentic 工作流

Section titled “解密 Antigravity:从截图到代码修复的 Agentic 工作流”

在传统的 AI 辅助编程(Copilot)模式下,开发者通常需要扮演“导航员”的角色:你需要告诉 AI “去读这个文件”、“解释这段代码”、“帮我写个函数”。通过对话式的交互,一步步引导 AI 完成任务。

Antigravity 则代表了下一代 Agentic AI(代理式 AI)的进化方向。它不再仅仅是一个被动的问答机器人,而是一个能够自主探索、主动推理、并在复杂代码库中独立完成任务的“智能同事”。

本文将以一个真实的 Bug 修复场景为例,深入解析 Antigravity 究竟是如何工作的。


一切始于用户的反馈。

假设用户提交了一个 Issue(如 ISSUE-182):

标题:微策血糖/尿酸一体仪上传血糖数据,但数据库未保存 描述:调用 POST /api/v2/users/records.json 接口,Payload 包含 blood_glucoseuric_acid 数据。查询数据库发现只有尿酸数据入库,血糖数据丢失。

Antigravity 接收到任务后,首先进行的是全方位的上下文感知

  • 读取 Issue 描述:提取关键信息(接口路径、参数结构、错误现象)。
  • 分析技术栈:识别出这是一个 Rails API 项目(后端)和 Flutter App(前端)。
  • 定位环境:确认当前不仅需要看代码,还需要利用 PostgresLoki MCP Server 来查日志和数据。

它不仅仅看到了文字,更构建了一个“任务图谱”:

  • 目标:修复已上传数据丢失的问题。
  • 切入点:后端 API 接口 /api/v2/users/records.json

2. 探索:像资深工程师一样查阅代码 (Exploration)

Section titled “2. 探索:像资深工程师一样查阅代码 (Exploration)”

Antigravity 不会胡乱猜测,而是利用工具链进行有目的的探索

它首先会像人类工程师一样,根据 API 路径寻找代码入口。

  • Tool Call: grep_search(query: "records", path: "config/routes.rb")
  • Result: 发现路由映射到了 Api::V2::Users::RecordsController#create

接着,它深入控制器代码。

  • Tool Call: view_file(path: "app/controllers/api/v2/users/records_controller.rb")
  • Analysis: 代码逻辑显示它调用了一个 RecordService.new(params).save 服务类。

问题的核心往往藏在业务逻辑层。

  • Tool Call: view_file(path: "app/services/record_service.rb")
  • Discovery: 在 RecordService 中,Antigravity 可能会通过 view_file_outline 快速梳理出的方法结构,发现数据处理的逻辑:
    def save_records
    @payload.each do |record|
    next unless valid_type?(record[:type])
    # ... 处理逻辑 ...
    end
    end

3. 推理:构建心智模型 (Reasoning)

Section titled “3. 推理:构建心智模型 (Reasoning)”

此时,Antigravity 不仅仅是在“读”代码,而是在运行思维模拟

面对 blood_glucose 数据丢失而 uric_acid 正常的情况,它会迅速提出几个假设(Hypothesis):

  1. 假设 Ablood_glucosevalid_type? 过滤掉了?
  2. 假设 B:数据库写入时发生了 Validation Error 但主要事务未回滚?
  3. 假设 C:存在某种针对 Micro-strategy 设备类型的特殊过滤逻辑?

为了验证假设,Antigravity 会主动调用 MCP 工具查询实时日志或数据库:

  • Monitor: 使用 loki_query 查阅 API 请求日志,确认 Payload 确实到达了服务器。
  • Check DB: 使用 execute_sql 检查 records 表的结构,确认字段定义。

通过结合代码逻辑(静态分析)和运行时状态(动态分析),它可能发现代码中有一行看似无害的过滤条件:

# 伪代码示例
next if device.all_in_one? && record_type == 'blood_glucose' && conflicting_upload?

“啊哈!” —— 这就是问题的根源。

定位到问题后,Antigravity 进入Execution Mode(执行模式)。它是极其谨慎的:

  1. 制定计划:Antigravity 会生成一个 implementation_plan.md,列出需要修改的文件和具体的改动点。
  2. 请求审批:它会把计划展示给用户:“我发现了问题 X,计划修改文件 Y,您是否同意?”
  3. 执行修改:获得授权后,它使用 replace_file_content 工具精准地替换有问题的代码块,而不是重写整个文件。
next if device.all_in_one? && record_type == 'blood_glucose'
process_blood_glucose if device.all_in_one?

5. 验证:不仅是 Run 还要 Verify (Verification)

Section titled “5. 验证:不仅是 Run 还要 Verify (Verification)”

修复代码并不是终点。Antigravity 懂得“主要路径测试”的重要性。

  • 自动化测试:它会主动运行 rspec spec/services/record_service_spec.rb 确保不仅修复了 Bug,还没有引入 Regression(回归错误)。
  • 生成报告:最后,它会创建一个 walkthrough.md,通过 Diff 对比和测试结果截图,直观地告诉用户:“问题已解决,这是证据。”

Antigravity 的核心价值在于Agency(代理权)

  • 它不需要你喂给它每一行代码:给它一个需求,它自己去相关文件中找。
  • 它不需要你做编译器:它自己运行测试,自己看报错,自己修正。
  • 它是一个闭环系统:从发现问题到解决问题,形成完整的工作流。

这就是 Antigravity —— 一个这在和你并肩作战,懂代码、懂业务、更懂解决问题的 AI 伙伴。

没有用户手机也能修 Bug:Antigravity 自主调试的实战案例

当用户反馈”手机字体调到最大时,锁屏界面无法点击进入App”,而你手边没有用户对应型号的手机设备时,该怎么办?本文记录了 Antigravity 如何仅凭用户截图和问题描述,自主探索代码、推理分析并成功修复问题的完整过程。

在移动应用开发中,我们经常遇到一个棘手的问题:用户反馈的Bug无法在开发环境重现。原因可能是:

  • 没有对应型号的测试设备
  • 无法复现用户的特定系统设置
  • 问题只在特定条件组合下出现

传统方法通常需要:远程调试、录屏分析、或者干脆购买/借用对应设备。但现在,Antigravity 自主调试提供了一种新的可能。

Issue #169: 用户反馈在某品牌手机上,当系统字体设置为最大时,锁屏界面无法点击进入App。

用户提供的信息:

  • 设备:Samsung Galaxy S20
  • 条件:系统字体设置为最大
  • 现象:锁屏界面的”向上滑动进入首页”区域无法响应

Antigravity 首先分析了问题的关键词:

  • “字体最大” → 涉及系统字体缩放(textScaleFactor)
  • “无法点击” → 可能是布局溢出导致交互区域不可见
  • “锁屏界面” → 需要定位锁屏相关代码

AI 使用多种工具并行探索代码库:

1. find_by_name 搜索 "*lock*" 相关文件
2. grep_search 搜索 "textScaleFactor" 配置
3. view_file 查看 lock_screen.dart 实现

关键发现:

发现一:主应用已有字体缩放保护

// main.dart line 563
builder: (context, widget) {
return MediaQuery(
data: MediaQuery.of(context).copyWith(textScaleFactor: 1.0),
child: widget!,
);
},

发现二:锁屏通过 Overlay 显示

// main.dart line 409-430
void showLockScreen(BuildContext context) {
final overlay = Overlay.of(context);
overlayEntry = OverlayEntry(
builder: (context) => BlocProvider<LockScreenBloc>(
bloc: LockScreenBloc(),
child: LockScreen(...),
),
);
overlay.insert(overlayEntry);
}

基于代码分析,AI 推导出问题的根本原因:

┌─────────────────────────────────────────────────────────────┐
│ GetMaterialApp │
│ ┌─────────────────────────────────────────────────────────┐│
│ │ MediaQuery(textScaleFactor: 1.0) ││
│ │ ┌───────────────────────────────────────────────────┐ ││
│ │ │ Normal App Content ✓ │ ││
│ │ │ (受 MediaQuery 保护,字体不受系统缩放影响) │ ││
│ │ └───────────────────────────────────────────────────┘ ││
│ └─────────────────────────────────────────────────────────┘│
│ │
│ ┌─────────────────────────────────────────────────────────┐│
│ │ Overlay.insert() ││
│ │ ┌───────────────────────────────────────────────────┐ ││
│ │ │ LockScreen ✗ │ ││
│ │ │ (在 MediaQuery 外部,继承系统字体缩放) │ ││
│ │ └───────────────────────────────────────────────────┘ ││
│ └─────────────────────────────────────────────────────────┘│
└─────────────────────────────────────────────────────────────┘

结论:锁屏界面通过 Overlay.insert() 插入,位于主应用的 MediaQuery 包装器外部。因此:

  1. 当用户将系统字体设为最大时,锁屏界面的文字会被放大
  2. 放大后的内容超出屏幕可视区域
  3. “进入首页”的滑动区域被推到屏幕外,用户无法交互

修复方案非常直接:为锁屏界面添加独立的 MediaQuery 保护。

// 修复前
return WillPopScope(
onWillPop: () async => false,
child: Material(...),
);
// 修复后
return MediaQuery(
data: MediaQuery.of(context).copyWith(textScaleFactor: 1.0),
child: WillPopScope(
onWillPop: () async => false,
child: Material(...),
),
);

由于没有物理设备,AI 使用静态分析验证:

Terminal window
$ flutter analyze lib/src/home/lock_screen.dart
Analyzing lock_screen.dart...
18 issues found. (ran in 4.3s)

分析结果显示:

  • ✅ 无语法错误
  • ✅ 无编译错误
  • ⚠️ 仅有预期的 deprecation 警告(与现有代码风格一致)

整个诊断过程中,AI 展示了几个关键的推理能力:

AI 不是孤立地看 lock_screen.dart,而是追溯了锁屏的显示方式(在 main.dart) 中),发现了 OverlayMediaQuery 层级的不匹配。

AI 理解 Flutter 的 Widget 树结构:MediaQuery 的作用域仅限于其子树。Overlay 不是 MediaQuery 子树的一部分,因此不受其约束。

从”字体最大”这个用户操作,AI 准确定位到 textScaleFactor 这个技术概念,并理解了它在 Flutter 中的工作机制。

  1. 使用 Overlay 时注意上下文继承:Overlay 可能不会继承期望的 Theme/MediaQuery 设置
  2. 全局配置要覆盖所有入口:如果要禁用字体缩放,需要确保所有 UI 入口都被覆盖
  3. 为无障碍功能做好测试:大字体是常见的无障碍需求,应该纳入测试场景
  1. 足够的上下文很重要:用户截图 + 问题描述 + 代码库访问 = 足够的诊断信息
  2. 静态分析是有效的验证手段:即使没有运行时环境,也能验证代码正确性
  3. 推理能力弥补环境缺失:理解框架机制比单纯运行测试更重要

这个案例展示了 Antigravity 自主调试的一种新范式:基于代码理解的推理诊断

传统调试依赖于”重现 → 观察 → 修改 → 验证”的循环。当无法重现时,这个循环就断裂了。

Antigravity 自主调试提供了另一条路径:“分析代码结构 → 推理问题原因 → 设计修复方案 → 静态验证”。这不是要替代传统调试,而是当条件受限时的有力补充。

当然,最终的确认仍然需要在真实设备上测试。但 AI 已经将”大海捞针”变成了”精准定位”,大大缩短了问题解决的时间。


本文基于 Antigravity 在 2025年12月11日 对 Issue #169 的实际诊断和修复过程整理。

告别繁琐调试:用 Antigravity + MCP 实现智能化问题排查

作为开发者,我们每天都要面对各种各样的问题排查工作:日志分析、数据库查询、代码追踪… 这些工作往往需要在多个工具之间来回切换,耗费大量时间和精力。

本文将介绍如何利用 **Antigravity(AI 编程助手)**结合 PostgreSQL MCPLoki MCP 实现智能化的问题排查,让 AI 成为你的”调试搭档”。


MCP(Model Context Protocol) 是一种让 AI 系统与外部工具和数据源连接的标准协议。通过 MCP,AI 可以:

  • 直接查询数据库
  • 实时读取日志
  • 分析系统健康状态
  • 执行复杂的数据分析

目前我们配置了两个核心 MCP 服务器:

  • postgres_api_prod - 生产数据库只读访问
  • loki-mcp-server - Grafana Loki 日志查询

1. SSH 登录服务器
2. 打开 Grafana,手动编写 LogQL 查询慢请求
3. 找到可疑请求,复制请求参数
4. 打开数据库客户端(如 DBeaver)
5. 手动编写 EXPLAIN ANALYZE 分析查询
6. 查看是否缺少索引
7. 在代码中追踪相关逻辑
8. 反复在多个工具间切换...
预计耗时:30-60 分钟
我:"过去1小时内有没有慢请求?帮我分析一下原因"
AI 自动执行:
1. 调用 Loki MCP 查询慢请求日志
2. 识别高频慢查询 SQL
3. 调用 PostgreSQL MCP 执行 EXPLAIN ANALYZE
4. 分析缺失索引并给出建议
5. 关联代码找到问题根源
预计耗时:2-5 分钟

传统方式: 需要记住一系列 SQL 查询,手动执行并解读结果

AI 辅助方式:

用户: 检查一下生产数据库的健康状态
AI: 我来分析数据库健康状况...
[调用 mcp_postgres_api_prod_analyze_db_health]
📊 分析结果:
- 连接数:45/100(正常)
- 索引健康:发现 3 个冗余索引
- 缓存命中率:98.5%(优秀)
- 需要关注:users 表有较高的 vacuum 积压
用户: 分析一下最近的慢查询
AI: 正在查询 pg_stat_statements...
[调用 mcp_postgres_api_prod_get_top_queries]
🐢 最慢的 3 个查询:
1. SELECT * FROM records WHERE user_id = ?
平均耗时:1.2s | 调用次数:15,234
建议:添加 user_id 索引
2. SELECT COUNT(*) FROM hardwares WHERE category = ?
平均耗时:0.8s | 调用次数:8,421
建议:考虑使用缓存
用户: 查看最近有没有 500 错误
AI: 正在查询 Loki 日志...
[调用 mcp_loki-mcp-server_loki_query]
查询: {app="api"} |= "500"
⚠️ 发现 3 条 500 错误:
时间: 2025-12-11 10:48:53
错误: ActionView::Template::Error
(undefined method `columns' for OpenStruct)
位置: app/views/api/common/_daily_user_stat.json.jbuilder:2
这是因为视图期望 ActiveRecord 对象,但收到了 OpenStruct。
需要更新视图模板以兼容两种对象类型。
用户: 这个查询能优化吗?
SELECT * FROM daily_stats WHERE code LIKE 'users.%'
AND stat_date BETWEEN '2025-12-01' AND '2025-12-11'
AI: 让我分析这个查询...
[调用 mcp_postgres_api_prod_explain_query]
📈 当前执行计划:
- Seq Scan on daily_stats (cost=0.00..125.00)
- Filter: (code LIKE 'users.%' AND ...)
- Rows: 约 500 行
💡 优化建议:
已存在索引 (stat_date, code),但 LIKE 'users.%'
无法利用索引前缀。建议:
1. 使用 text_pattern_ops 创建支持前缀匹配的索引
2. 或者改用 code >= 'users.' AND code < 'users/'

{
"mcpServers": {
"postgres_api_prod": {
"command": "uvx",
"args": ["mcp-server-postgres", "--readonly"],
"env": {
"DATABASE_URL": "postgresql://readonly_user:***@db-host:5432/api_prod"
}
}
}
}
{
"mcpServers": {
"loki-mcp-server": {
"command": "npx",
"args": ["-y", "loki-mcp-server"],
"env": {
"LOKI_URL": "https://loki.example.com",
"LOKI_USERNAME": "admin",
"LOKI_PASSWORD": "***"
}
}
}
}

任务手工耗时AI 辅助耗时提升
数据库健康检查15-20 分钟1 分钟15x
慢查询分析20-30 分钟2 分钟12x
日志错误排查10-15 分钟1 分钟12x
索引优化建议30-45 分钟3 分钟12x
完整问题定位1-2 小时5-10 分钟10x

❌ "系统有问题"
✅ "用户反馈统计页面加载很慢,帮我查一下 daily_user_stats 接口的日志和数据库查询"
❌ "查一下日志"
✅ "查一下过去1小时内 api 的 500 错误日志"
用户: 查一下慢查询
AI: [返回 Top 10 慢查询]
用户: 第一个查询能优化吗?
AI: [执行 EXPLAIN 分析并给出建议]
用户: 如果加上这个索引会怎样?
AI: [使用假设索引分析优化效果]

通过 Antigravity + MCP 的组合,我们实现了:

  1. 统一入口 - 一个对话界面完成日志、数据库、代码的联合分析
  2. 自动关联 - AI 能够自动关联不同数据源的信息
  3. 智能建议 - 不仅找出问题,还能给出优化方案
  4. 效率飞跃 - 问题排查时间从小时级降到分钟级

这不是要取代传统工具,而是让 AI 成为你的智能助手,帮你快速定位问题,让你有更多时间专注于真正重要的工作。


作者注:本文基于 api 项目的实际使用经验编写。如果你的团队也在使用类似的 AI 编程工具,欢迎分享你的实践经验。

中国人工智能:2026年供应链上行空间成为焦点

对于中国的AI故事而言,现在仅仅是开始的结束,我们不认为中国的AI是一个泡沫。对中国AI而言,2025年是一个好年景,由DeepSeek引发,但从供应链发展的角度来看,中国的AI故事才刚刚结束其初始篇章。我们预计,中国云服务提供商(CSP)和电信公司(Telco)的总资本支出(capex)的复合年增长率(CAGR)将达到13%,其中AI资本支出到2028年将以25%的复合年增长率增长,达到1720亿美元。重要的是,这一支出仍然是健康的:对于已上市公司而言,总资本支出仅占其自由现金流的40%至60%,或占其营收的约17%。主要云服务提供商已经预示将上调其资本支出计划,其中大部分将分配给AI,这将在2028年创造880亿美元的AI芯片需求。

本土供应链正在迅速发展以满足这一激增的需求。目前,最大的瓶颈在于本土先进逻辑生产能力的限制,这限制了本土AI芯片的产出。然而,我们的渠道调查显示了一个关键的转折点:先进逻辑产能应在2026/27年开始加速增长(附图12)。考虑到从晶圆代工生产到AI芯片销售通常有3-4个季度的滞后时间,这种产能增加将转化为2027/28年本土AI芯片销售额的急剧增长(附图14)。我们预计,到2028年,本土AI芯片的供应将比2025年增长5倍,市场将实现供需平衡。值得注意的是,我们预计在正在进行的“后门”调查中,英伟达(NVIDIA)不会恢复在中国的销售,因此预计到2028年本土企业将占据90%以上的市场份额。

中国AI供应链中的领先者将受益。我们预测2026年中国整个AI供应链将出现广泛反弹,按行业排名为:AI芯片 > 半导体设备 > 晶圆代工。

Anthropic 法务把审合同这件苦差事,用 Claude 玩成了“工作流艺术”


昨天 Anthropic 官网上发了一篇新文章,讲他们法务团队怎么用 Claude / Claude Code,把原来要几天的活压缩到几个小时,而且全程“人始终在环中”

一、连顶级 AI 公司,法务也在被“体力活”榨干

Section titled “一、连顶级 AI 公司,法务也在被“体力活”榨干”

Anthropic 的产品律师 Mark 描述自己之前的日常:

  • 回各种合规文档、客户问卷
  • 改服务条款和隐私政策
  • 帮市场部审博客、邮件、营销素材
  • 红线合同、一条条对比版本
  • 写一大堆隐私影响评估(PIA)

这些活有几个特点:

重复、格式差不多、出错成本高、又极其浪费脑力。

他甚至说,很多事情会拖到一天最后去做,因为很占时间,但完全用不上自己“最好的那部分大脑”。

这听着是不是很眼熟? 只要你在公司里做过一点法务、合规、风控、运营、客服,其实都在经历类似的痛。

Anthropic 法务团队做了一件很“工程师”的事:

他们拉了个会,专门在白板上写—— “什么事最耗精力?什么最重复?哪些活根本不配占我们这么多时间?”

答案出来之后,他们没急着谈“AI 能做什么”,而是只盯一个问题:

哪些事情,我们最想再也不用亲手做一遍?


二、法务工作流怎么拆:4 个真实场景

Section titled “二、法务工作流怎么拆:4 个真实场景”

Anthropic 法务团队花了几个月,把痛点一点点变成了“可复制工作流”。

1)营销素材自助审核:先过 AI 这一关

Section titled “1)营销素材自助审核:先过 AI 这一关”

以前的流程,你肯定见过:

市场部在发布前一晚,把落地页、Push、海报一股脑甩给法务: “帮忙今天之内过一下,明天要上线。”

法务只好:打开文档 → 从头看一遍 → 留一堆 comment → 来回几轮修改。 经常一拖就是几天。

Anthropic 的改造方式很简单,但很狠:

他们在 Slack 里做了一个**“营销素材自查工具”**(Self-Review Tool):

  • 市场同学把文案粘进去

  • Claude 调用一个专门的 “法务 Skill 文件”

    • 里面是:历史审核意见、常见风险点、团队约定的判断标准
  • Claude 自动标出:

    • 夸大宣传?
    • 数据是否有来源?
    • 是否侵犯肖像权、名誉权?
    • 有没有暗示不该承诺的东西?
  • 每个问题打风险等级:低 / 中 / 高

  • 顺带给出“修改建议版本”

只有过了这一关,才会真的创建工单,进法务队列。

StartupHub 的报道里提到,这一套下来,原来要几天的审核,现在可以压缩到几个小时,而且 Slack 里还能自动生成一条总结消息,帮法务把风险点捋清楚。

这件事本质是:

把“问诊前的表格”和“基础体检”交给 AI 做, 真正的诊断,还是医生说了算。


2)兼职 / 外部活动审批:AI 先问清楚细节

Section titled “2)兼职 / 外部活动审批:AI 先问清楚细节”

很多公司都有类似流程:

员工想去接个顾问、搞个副业、去非营利机构当个董事,都要走“外部商业活动审批”。

以前的做法:法务要一对一问清楚背景、利益冲突、时间占用、竞业风险……来回问半天。

现在 Anthropic 是这么玩:

  • 员工先填一个结构化表单
  • Claude 读完表单内容
  • 如果信息不够,它会自动追问补充问题
  • 再根据公司规则,给出一个建议结论 + 风险说明
  • 最后进法务队列,由律师确认通过与否

律师们现在主要盯两类:

  • 真·疑难杂症
  • 风险比较高的边界情况

把“90% 标准流程 + 10% 极值判断”拆开了。


3)隐私影响评估(PIA):让 AI 学会“写模板”

Section titled “3)隐私影响评估(PIA):让 AI 学会“写模板””

隐私类项目,每上一个新功能,就要重新写一份 PIA。

痛点在于:

  • 模板类似,但每次都得重写
  • 既要贴合具体场景,又不能漏掉必写模块

Anthropic 的做法有两步:

  1. 用 MCP(Model Context Protocol)把 Claude 接入一个 Google Drive 文件夹

    • 里面是他们历史所有 PIA 文档
  2. 给 Claude 配一个“写 PIA 的 Skill”,告诉它:

    • 文档结构
    • 每一块重点关注什么
    • 公司特别在意的隐私点

律师只要说一句:

“根据之前这些案例,帮我写一个这次新功能的 PIA 草稿。”

Claude 会:

  • 先理解历次 PIA 的风格
  • 再按格式写出初稿
  • 把历史关注点迁移到新场景

律师做的工作,从“从 0 写一遍”,变成“改一篇已经 80 分的稿子”。


4)Legal 玩出了“摩斯密码灯”,但重点在于“门槛降到了人话”

Section titled “4)Legal 玩出了“摩斯密码灯”,但重点在于“门槛降到了人话””

有个细节挺好玩:

Mark 用 Claude Code 做了个“法律台灯”,能闪烁摩斯密码来收发信息——纯属个人兴趣项目。

但这个故事背后的点很重要:

连一个不会写代码的律师,都能靠“跟 AI 说人话”,做出一个完整的小应用。

对企业来说,这意味着:

  • 法务、合规、运营这些本来“不会写代码的人”,可以自己动手搭工作流
  • 不用一上来就排工程资源、立大项目
  • 他们只要把规则讲清楚,就能让 AI 帮忙落地成工具

这就从根上改变了: “只有工程师才能做工具”这件事。


三、这套法务工作流的“底层积木”

Section titled “三、这套法务工作流的“底层积木””

Anthropic 法务这套体系背后,其实就三块积木:

1)从“技术能做什么”换成“我不想干什么”

Section titled “1)从“技术能做什么”换成“我不想干什么””

Mark 给的建议很直接:

不要上来问“AI 能干嘛”, 先问“我们最想摆脱的活是什么”。

他们就是按这个思路,白板上写:

  • 哪些是重复文书
  • 哪些是每天都在做的判断
  • 哪些是完全可以标准化的流程

确认完,再看:

  • 能不能先让 AI 做第一轮
  • 把人类的时间保留给争议点、例外情况、战略判断

2)Skills:把团队经验打包成“可调用资产”

Section titled “2)Skills:把团队经验打包成“可调用资产””

官方博客里把 Skills 定义成:一份文件,里面写着指令、脚本、参考资料,让 Claude 在做某个任务时能“变成行家”

对法务来说,Skills 用在两件事:

  • 保证规则统一

    • 营销审核 Skill:把“团队历史审核意见”固化进去
    • 不同领域有不同 Skill:雇佣、商业、隐私、公司治理……
  • 保持文风统一

    • Mark 让 Claude 读了自己 10 篇备忘录
    • 让它学会自己的写法、结构、口吻
    • 以后让 Claude 起草 memo,可以直接“写出他的风格”

你可以把 Skill 想象成:

团队里那位资深律师的“外挂记忆卡”。

用的时候插上,不用的时候拔掉。


3)MCP:把分散的信息接成一张“法务知识网”

Section titled “3)MCP:把分散的信息接成一张“法务知识网””

另一个关键积木是 MCP(Model Context Protocol)。

Anthropic 法务用它把 Claude 接到了:

  • Google Drive:历史合同、PIA、模板、政策
  • JIRA:需求与工单
  • Slack:沟通记录
  • 日历:关键会议、审批节点

这样做有两个效果:

  • AI 不再“瞎编”,因为它有你自己的资料可查
  • 每个工作流,都能拿到刚好够用的上下文

你可以简单理解:

MCP = 给 AI 接上“公司内部网”。

Skills = 教它“怎么用这些资料办事”。


四、整套方案最关键的一条:人绝对不能缺席

Section titled “四、整套方案最关键的一条:人绝对不能缺席”

无论是 Anthropic 自己的博客,还是 StartupHub 的报道,都在反复强调一句话:“法务一定要在人在环中。”

他们的实际做法是:

  • AI 负责:

    • 首轮审稿、找问题
    • 初步打风险等级
    • 草拟修改建议和文档
  • 律师负责:

    • 核查事实与引用
    • 判断“这个风险公司能不能接受”
    • 对外最后拍板

Anthropic 明说了:

AI 会幻觉,这是客观事实。

所以他们的设计就是:AI 做“加速器”,人做“刹车 + 方向盘”。

对任何想在公司里推 AI 的人来说,这句话很有用:

你不是在用 AI 替代法务, 你是在用 AI 让法务不再做“改格式、找错别字”的机器。


五、这套玩法,国内团队怎么“抄作业”?

Section titled “五、这套玩法,国内团队怎么“抄作业”?”

说完 Anthropic,我们来聊“怎么抄”。 不管你现在用的是 Claude、ChatGPT、DeepSeek 还是自家的模型,其实都能借这套思路。

你可以这样开局:

1)列出你团队的“法务地狱清单”

Section titled “1)列出你团队的“法务地狱清单””

找一天,拉上法务 / 合规 / 市场 / 产品:

  • 写下最不想亲自再做一百遍的任务
  • 按“重复度 × 风险可控度”来排优先级
  • 选 1~2 个“现在就可以试水”的

典型候选:

  • 营销素材初审
  • 合同标准条款比对
  • 数据保护、隐私类模板
  • 标准问卷、合规 Q&A

2)先搭“人 + AI 双层流程”,再谈自动化

Section titled “2)先搭“人 + AI 双层流程”,再谈自动化”

一上来就做“端到端自动审批”,往往会死在风控和信任上。

更稳的方式是:

  • 让 AI 做“内部预审 + 辅助草稿”

  • 真正的决策流程不变

  • 用 1~2 个月,验证:

    • 它有没有明显错误
    • 速度是不是真的提升
    • 团队有没有觉得更好用

过了这一关,再看要不要升级成:

  • 自助工具
  • 与内部系统打通的工作流
  • 加入模板、Skills、团队规范

3)把“规则”和“风格”慢慢喂给 AI

Section titled “3)把“规则”和“风格”慢慢喂给 AI”

可以学 Anthropic 的两步法:

  • 规则

    • 整理一份“本公司法务审核 checklist”
    • 例如:不可使用的词、必加免责声明、必须核实的数据项
    • 编成一个长期维护的“AI 提示文档”或 Skill
  • 风格

    • 丢给 AI 你们团队写得比较满意的几份合同评审意见、备忘录
    • 让它总结:常见结构、表达习惯、措辞偏好
    • 以后生成草稿时,都要求“按这个风格写”

慢慢地,你会得到一个:

会按你们自己的习惯做事的 AI 小同事。


做这类自动化,到底值不值? Anthropic 在另一份《How Anthropic teams use Claude Code》文档中提到,他们内部很多团队都用这套方式来评估效率提升,而法务是收益特别明显的一块。

你可以简单量化:

  • 每条营销素材的平均审核时间
  • 每份合同从“发给法务”到“给出意见”的周期
  • 每个律师每周花在重复文书上的小时数

做个前后对比,很容易说服老板继续投资源。


用一句话概括 Anthropic 法务这次的实践:

用 AI 做“懂规则的初级助理”, 把资深律师从体力活里解放出来,去做真正需要判断力的事。

这件事对所有“又懂业务又懂一点点 AI 的人”来说,都是一个巨大的机会:

  • 你可以成为那个把团队经验沉淀成 Skills 的人
  • 你可以搭起第一个“AI + 法务工作流”
  • 你可以把 AI 从“聊天玩具”,变成真正的“流程基础设施”

我很好奇:

你所在的团队,有哪些事,其实完全可以照着 Anthropic 这套思路,交给 AI 打底?

给 Claude 装上「长期记忆」:claude-mem 实战体验与使用建议

claude-mem 这玩意儿,能让 Claude 真正「记住你」


你有没有这种感受:

每次打开 Claude / ChatGPT 写代码, 都要从头给它讲一遍项目背景:

「我在做个后台管理系统,技术栈是……」 「上次我们做到用户登录,这次要加的是……」

讲着讲着,人都烦了。

模型不是真的笨,只是没记忆。

今天这篇,就带你看看 GitHub 上一个很有意思的小项目: claude-mem——给 Claude Code 装上「长期记忆」的大脑。


一句话版:

它会自动记录你在 Claude Code 里的操作,自己总结、压缩, 下次再开同一个项目,Claude 会「主动想起」之前的上下文。

更细一点说,它是:

  • 一个 Claude Code 插件
  • 会自动捕获:你的指令、工具调用、读写文件等操作
  • 后台用 Claude 的 Agent SDK 做总结、提炼要点
  • 存进本地数据库和向量库,支持全文 + 语义检索
  • 下次你再开 Claude Code,它会把「最相关」的历史内容 当作上下文自动塞回新对话里

所以体验上就是:

你继续写代码,Claude 变成了那个 「对项目背景比你还熟」的搭档。


二、它是怎么帮 Claude「开挂记忆」的?

Section titled “二、它是怎么帮 Claude「开挂记忆」的?”

官方 README 里画了一个很清晰的流程图,我给你翻译成人话版:

1)会话开始:先喂点「最近发生的事」

Section titled “1)会话开始:先喂点「最近发生的事」”

每次你在 Claude Code 里开一个新 session, claude-mem 会先从数据库里挖出「最近的关键信息」, 整理成一段简短上下文, 自动注入到这次对话开头

就好像跟朋友见面前,先在脑子里过一遍:

「上次我们聊到登录注册,中间踩了哪些坑?」

2)你在写代码:它在后台默默记笔记

Section titled “2)你在写代码:它在后台默默记笔记”

在整个开发过程中,它会持续记录:

  • 你发给 Claude 的重要指令
  • Claude 调用工具时的「观察结果」(读了哪个文件、写了什么)
  • 一些关键的中间过程

这些原始信息不会直接拿来当上下文那样粗暴重放, 而是先交给 Worker Service,用 Claude 自己的 Agent SDK 来做总结:

「这次 session 里有哪些值得记住的‘经验’?」

比如:

  • 我们决定弃用某个第三方库
  • 重构了某个模块的接口设计
  • 修了一个阴间 Bug,并总结了成因

3)会话结束:生成一份「学习笔记」

Section titled “3)会话结束:生成一份「学习笔记」”

session 结束时,它会做一件事:

把这整个会话浓缩成一份「项目变更日志 + 决策摘要」。

然后存进本地 SQLite(支持全文搜索), 同时也写入 Chroma 这类向量数据库,方便走语义检索。

下一次 Claude 要查历史,就不用「全量翻旧账」, 而是通过智能搜索 + 分层展开(progressive disclosure) 把少量但关键的上下文塞回对话中。


三、对开发者来说,爽点在哪?

Section titled “三、对开发者来说,爽点在哪?”

1)长周期项目:不用每次都复盘一遍

Section titled “1)长周期项目:不用每次都复盘一遍”

想象一个真实场景。

你在做一个 SaaS 管理后台,跨度 3 个月。 中间还要被各种会议、需求变更打断。

没装 claude-mem 的时候,每次回到项目是这样的:

  • 先翻 Git log 和文档
  • 再用大段提示把背景讲一遍给 Claude
  • Claude 才慢慢进入状态

装上 claude-mem 之后:

  • 新 session 一开,Claude 自己就知道:

    • 项目在做什么
    • 最近改了哪些模块
    • 哪些坑已经踩过、别再踩第二次

你只需要说一句:

「继续上次我们做到的权限管理,把导出功能补完。」

Claude 就能「接得上话」,而不是一脸懵逼。

2)mem-search:给你一个「项目时光机」

Section titled “2)mem-search:给你一个「项目时光机」”

claude-mem 还内置了一个很有意思的技能:mem-search

你可以直接用自然语言问它:

  • 「帮我找下我们之前是怎么设计登录接口的?」
  • 「之前那个 file upload 的 Bug,我们当时是怎么修的?」

和普通的「在代码里搜关键词」不一样, mem-search 查的是对话 + 工具调用 + 总结后的知识, 还能按「分层展开」控制注入多少上下文,顺便省 token。

简单说:

它帮你把「我记得我们好像讨论过这个」 变成可以随时调出的「有据可查」。

3)Web UI:实时看 Claude 在「想什么」

Section titled “3)Web UI:实时看 Claude 在「想什么」”

项目还提供了一个 Web Viewer,默认跑在 http://localhost:37777 上:

  • 能实时看到当前 session 的「记忆流」

  • 支持搜索历史

  • 方便你检查:到底记录了什么、会注入什么

这对有安全洁癖的团队,很重要。 你可以肉眼确认:有没有把不该记的东西写进数据库。

如果你有一些敏感内容(比如公司内部系统、密钥、用户数据), 可以在对话中用 <private> 包裹, claude-mem 会把这部分内容从持久化存储中排除掉。

大模型继续能用这些信息在当前 session 里思考, 但不会被写进长期记忆,降低泄漏风险。

对需要合规的企业用户,很加分。


作者已经把安装流程做得非常贴近 Claude Code 用户习惯。

在 Claude Code 的终端里,新开一个 session,然后输入两行命令:

/plugin marketplace add thedotmack/claude-mem
/plugin install claude-mem

重启一下 Claude Code,就开始自动工作了。

更深一点的玩法(可选):

  • 跑本地 worker service 和 Web UI
  • 调整配置(哪些内容要记录、token 使用策略等)
  • 自己改配置、对接更复杂的开发环境

对一般开发者来说,先用默认配置跑起来就够爽了。 真香之后,再慢慢研究文档里的「Context Engineering」「Progressive Disclosure」这些高级玩法。


我觉得这几个群体用起来会最有感觉:

  • 长周期项目的主力开发 一年只做一个大项目的那种人,会非常爱它。

  • 用 Claude Code 当主力 IDE 辅助的同学 每天都在和 AI 结对编程,记忆收益特别明显。

  • 喜欢做 Side Project / 开源项目 中间经常停一两周,再回来还能「无缝接续」。

  • 只是偶尔让 Claude 帮你写个小脚本
  • 单文件的小实验、一次性小工具

这种强度下,claude-mem 的长期记忆优势不明显, 装不装完全看心情。

  • 需要你愿意在本地跑一个常驻服务和数据库
  • 团队使用时,还是要评估好数据存储和访问规范
  • 目前是社区项目,升级和兼容性需要自己多留意

不过从 star 数和活跃度来看,社区热度还不错, 有问题也可以直接去 Issues 里交流。


站在「效率 / 钱」的角度,claude-mem 带来的收益主要有几类:

  • 节省时间 不用一遍遍重复项目背景、翻历史对话。

  • 减少错误 避免重复踩过的坑,记得之前做过的决策。

  • 更稳的协作 项目暂停、成员变动后,历史脉络更好恢复。

如果你已经在为 Claude / GPT 付费,其实每次「重新解释项目」 也是在烧 token。claude-mem 本质上是在帮你:

把「反复解释」变成「一次解释,多次复用」。


总结:让 AI 成为「记性很好的搭档」

Section titled “总结:让 AI 成为「记性很好的搭档」”

对很多人来说,AI 现在已经是日常开发里不可或缺的帮手。 但没有记忆的 AI,更像是一个短期实习生

  • 当下干活没问题
  • 但对项目长期价值有限

像 claude-mem 这种「记忆外挂」, 就是在把它升级成一个真正懂项目上下文的长期队友

如果你已经在用 Claude Code 写项目, 可以找个周末腾一个小时,装上试试:

也许你会突然意识到—— 原来大模型真正的上限,不在「它能写多少代码」, 而在「它能记住多少你们一起走过的路」。


你现在是怎么让 AI「记住项目」的?

  • 靠手写文档?
  • 靠每次复制一大段提示词?
  • 还是干脆放弃,能记多少算多少?

欢迎在评论区聊聊你的做法, 也可以分享一下你会把 claude-mem 用在什么项目上。

12月~明年1月,美股投资者必须盯紧的几件大事

最近,市场上最流行的一句故事是:

“Google TPU 崛起,NVIDIA 要被干掉了;AWS 有 Trainium,微软有 Maia,自研 ASIC 要把 GPU 挤下王座。”

但如果你看一下摩根士丹利互联网分析师 Brian + 半导体分析师 Joe Moore 的那种“内部视角”,再对照公开数据,会发现一个更接近真实产业逻辑的图景:

现在不是“谁替代谁”,而是“只要能算,什么都要”。 短期是算力饥荒,长期是利润向少数掌握标准和成本优势的玩家集中。

下面这篇文章,我按四个问题来讲:

  1. 真的进入了“无限算力时代”吗?
  2. 多架构共存,是谁的常态——大厂还是全行业?
  3. Google 有 TPU,为什么还离不开 NVIDIA?
  4. 普通投资者该怎么在这场“所有人都造芯片”的混战里做选择?

中间我会穿插:

  • 对观点的事实核查(至少 3 个专业来源交叉验证),
  • 对逻辑的拆解,
  • 以及站在人性和利益上的“谁在忽悠谁”。

一、算力洪水:是“永远不够”,还是“短期饥荒”?

Section titled “一、算力洪水:是“永远不够”,还是“短期饥荒”?”

1. 有多“洪水”?先看几组硬数据

Section titled “1. 有多“洪水”?先看几组硬数据”

(1)数据中心 CapEx 的爆发

  • Dell’Oro 的报告显示:2024 年二季度,全球数据中心资本开支同比增长 46%,主要由部署 AI 加速服务器(GPU / TPU / 自研加速卡)驱动。
  • 同一机构后续统计:2024 年全年全球数据中心 CapEx 跳升到 4550 亿美元,增速 51%,并预计 2025 年仍保持两位数增长,核心动力仍然是 AI 加速服务器。

这些数字基本等于在说:

“大家在数据中心上砸钱的速度,确实到了历史罕见水平,而且就是为了 AI。”

(2)GPU 这边:NVIDIA 的“吸金黑洞”

  • NVIDIA 最新财报:2025 财年 Q4(截至 2025-01-26)单季营收 393 亿美元,同比 +78%,主要由数据中心业务拉动。
  • 行业分析估算:2025 年 Q3,NVIDIA 数据中心部门单季就已突破 500 亿美元收入,毛利率接近 75%
  • 针对“数据中心 GPU”单独的市场,研究机构预计:2025 年约 105 亿美元,2035 年有望扩张到 770 亿美元,年复合增速超 22%

(3)Blackwell 的真实状态:不是“没人要”,而是“根本不够卖”

NVIDIA 管理层在 2024 年底、2025 年的多次财报会上反复强调:

  • Hopper 和 Blackwell 平台都存在供应约束;
  • Blackwell 的需求预计在 2026 财年连续多个季度将“超过供给”,目前很多明年的产能已经被提前锁定。

各家研究报告和媒体基本达成共识:

高端 AI GPU(H100/H200/Blackwell)处于“排队买 + 配给制”的状态。

所以,你原来那句:

“行业不是卷架构,而是卷能不能拿到卡”

当下 1~3 年的窗口期里,和公开数据是吻合的。


2. 但“算力永远不够”是情绪,不是物理定律

Section titled “2. 但“算力永远不够”是情绪,不是物理定律”

这一点对投资者很重要。

(1)物理和基础设施约束

  • AI 数据中心不是只买卡,还要:

    • 电力:大规模 AI 机房功耗动辄几百兆瓦;
    • 铜和材料:分析指出 AI 数据中心每 MW 用铜 27–33 吨,按当前规划,到 2035 年现有和在建铜矿产能只能覆盖约 70% 需求,2025 年就可能出现 30 万吨级铜缺口。

这些约束在告诉我们:

“无限算力”更像是需求侧的愿望,现实世界会用电网、材料和审批给你踩刹车。

(2)现金流和股东约束

  • 云厂商如今每年在 AI 基建上的投资都几十上百亿美元,
  • 但股东会问:“这些 GPU / TPU 多久能回本?AI 产品赚的钱跟得上吗?”

如果未来两三年“大模型赚钱速度”不及市场预期, CapEx 的增速一定会从 50%+ 降下来,这跟任何一轮基础设施周期(4G、云计算、光纤)都类似。

总结这一点:

  • 事实层

    • 现在确实是算力饥荒 + 高端 GPU 极度紧缺的阶段;
  • 观点层

    • “算力永远不够”是被情绪放大的说法;
  • 投资含义

    • 短期可以用“抢卡逻辑”解释估值,
    • 中长期必须盯住:电力 / 材料 / 回报率这三把剪刀什么时候开始剪掉增速。

二、“谁有我用谁”:多架构并存是被逼出来的,不是优雅选择

Section titled “二、“谁有我用谁”:多架构并存是被逼出来的,不是优雅选择”

你总结的第二点是:

“现在谁能给我算力,我就用谁。NVIDIA、AMD、自研 ASIC、TPU、甚至下一代便宜芯片,都可以买。”

我们来对照产业现状看看这句话哪里是事实,哪里是前沿公司特权。

1. 事实面:头部玩家确实在走“多架构路线”

Section titled “1. 事实面:头部玩家确实在走“多架构路线””

(1)云厂商 / Hyperscaler 的结构

多家研究机构(Kearney、MLQ.ai 等)在 2025 年的报告里都指出:

  • 目前数据中心 AI 加速卡市场仍由 NVIDIA 主导
  • 但 Google TPU、AWS Trainium、Microsoft Maia 这类自研芯片, 预计在 2020s 后半段能拿到 15–20% 的内部部署份额(主要是各家自己内部工作负载)。

换句话说:

  • 对 Google/AWS/Microsoft 这些巨头来说:

    GPU + 自研 ASIC 混用”已经是被公开写进路线图的现实。

(2)具体厂商怎么做?

  • Google Cloud:AI Hypercomputer

    • 一边在推出新一代 Trillium TPU(第六代),
    • 一边在官方博客里明确宣布:会把 NVIDIA Blackwell 平台(B200 / GB200)作为 Hypercomputer 架构的一部分,客户可以在 TPUs 和 NVIDIA GPUs 之间选择。
  • AWS:Trainium + NVIDIA GPU 同时卖

    • re:Invent 2024 / 2025 上,AWS 一边发布 Trainium2/3/4 自研 AI 芯片和 UltraServer,定位为“更便宜的训练 + 推理算力”;

    • 一边在自家技术博客的 Compute Track 里强调:

      “我们的加速算力组合同时包括 GPU 实例和 AWS AI 芯片实例,客户可按成本 / 性能 / 兼容性选择。”

  • Microsoft:Maia 内部用,NVIDIA 对外卖

    • 微软推出 Maia 100/200 AI 加速器,明确说是给 自己和 OpenAI 等内部超大模型工作负载用;
    • 同时依然在 Azure 上大规模部署并宣传最新的 NVIDIA GPU(包括 GB300 NVL72 集群),还发布联合博客说明如何在 Azure 上“挖尽每一块 GPU 的价值”。

这些都说明:

在最头部的那圈玩家里,“多架构并存”已经是事实。 他们真的在做你说的那句话:“谁能给我算力,我就用谁。”


2. 但这不是整个行业的常态,而是“巨头的 privilege”

Section titled “2. 但这不是整个行业的常态,而是“巨头的 privilege””

这里的逻辑陷阱在于:

看到前沿模型公司可以同时跑 4–5 种架构,就以为所有 AI 公司都可以这么玩。

现实更接近:

  • 只有云巨头 / 顶级模型公司,才有能力:

    • 维护多套底层硬件(GPU / TPU / Trainium / Maia / 其他 ASIC);
    • 投入工程资源把模型移植到各种后端(CUDA、ROCm、XLA、自研 SDK);
    • 搭建统一调度 / 编译 / MLOps 层去屏蔽异构硬件的差异。
  • 大多数 AI 创业公司、传统企业客户的行为其实是:

    只要能租到足够的 NVIDIA GPU,我不会主动去折腾别的架构。

这点从生态能看得很清楚:

  • CUDA 在框架、工具链、教程、开源项目中的支持度,仍然远高于其他体系;
  • 很多三方推理/训练平台,做“多后端适配”时,依然是把 NVIDIA 当默认第一优先级。

所以:

  • 你那句“多架构成了常态”,

    • Google/AWS/Microsoft/OpenAI/Anthropic 这几家,是对的;
    • 普通 AI 公司,更多仍是“以 NVIDIA 为主,其他做补充选项”。

3. 人性 & 利益:多架构背后是谁在算计谁?

Section titled “3. 人性 & 利益:多架构背后是谁在算计谁?”

把这件事从“技术理想主义”拉回到“利益现实”:

  • 大模型公司 / 云厂商来说,多架构的真正动机只有三个:

    1. 活命:在算力短缺时期,“谁有卡谁是亲爹”;
    2. 压价:用 TPU / Trainium / Maia 在谈判桌上给 NVIDIA 施压;
    3. TCO:把部分推理负载迁到更便宜、更节能的 ASIC 上,降低长期成本。
  • NVIDIA来说,最大的目标是:

    “让 CUDA + 平台生态成为‘行业默认标准’, 这样即使别人造出便宜芯片,迁移成本也足够高。”

结论:

多架构并不是“技术多元之美”, 而是一场供应链博弈 + 成本博弈 + 议价权博弈。


三、Google 有 TPU,为什么还在买 NVIDIA?

Section titled “三、Google 有 TPU,为什么还在买 NVIDIA?”

你提到的第三点非常关键:

“Google 虽然有 TPU,也还是继续买 NVIDIA GPU —— TPU 不是替代,而是补充。”

这个说法和公开信息高度吻合。

  • Google Cloud 的官方博客和技术文档清清楚楚写着:

    • AI Hypercomputer 里既有 自研 Trillium TPU
    • 也有 NVIDIA H200 / Blackwell(B200、GB200 NVL72)GPU 实例
    • 客户可以按需求选择不同加速器组合。
  • Google 列举的很多客户案例,都同时提到 TPU 和 NVIDIA GPU 的使用场景:

    • 比如某些训练任务在 TPU 上跑,
    • 但某些延迟敏感或已有 CUDA 生态的任务仍在 GPU 上。

2. 逻辑上为什么“不能只用 TPU”?

Section titled “2. 逻辑上为什么“不能只用 TPU”?”

(1)业务结构差异

  • 自家核心业务(搜索、广告、YouTube 推荐、GWS 等):

    • 可以强行按自己的节奏迁到 TPU 上,这里是“内部强控 + 长期 ROI”。
  • 对外的云业务:

    • 客户有大量基于 CUDA 的代码、模型和工具链,
    • 如果 Google 说“只能用 TPU,不给你 GPU 选项”,那等于把客户往 AWS / Azure 赶。

所以对 Google 来说,GPU 和 TPU 分工是:

  • TPU:内部大规模生产 + 部分对外,重点是拉低自己的长期算力成本;
  • NVIDIA GPU:生态标配 + 客户需求,是留住云客户的必需品。

(2)路径依赖和迁移成本

就算 TPU 在某些任务上更便宜、更高效, 但对大部分已经被 CUDA 教育过的开发者来说:

“重写一堆代码 + 重建全套工具链” 的成本,往往大于“多付一点 NVIDIA 税”的痛感。


3. 把这一点放到更大图景:自研 ASIC 的真实作用

Section titled “3. 把这一点放到更大图景:自研 ASIC 的真实作用”

综合各家(Google TPU、AWS Trainium、Microsoft Maia)的公开表态,可以得到一个更现实的结论:

  • 自研 ASIC 的本质,是给巨头自己“减轻长期算力成本 + 提升供应链安全”的工具;

  • 它不是为了“在公开市场上卖到把 NVIDIA 挤死”,

  • 而是为了在谈判桌上说:

    “我不是只能用你家卡,我自己也能做,价格别太离谱。”

所以你那句 —— “TPU 不是替代,而是补充” —— 在产业结构层面是完全成立的。


四、“无限算力时代,大家都赢”?——这里最容易误导散户

Section titled “四、“无限算力时代,大家都赢”?——这里最容易误导散户”

你在最后给了一个很有画面感的总结:

“所有架构、所有供应商都被卷入同一个黑洞——抢时间、抢卡、抢迭代速度。 GPU、TPU、ASIC 不是互相替代,而是共同扩张, 赢家是任何能提供算力的人。”

方向感是对的

  • 现在确实是“谁能提供高性能算力,谁就有生意”;

但对投资者来说,关键问题是:

生意 ≠ 高利润,更不等于所有人都能赚大钱。

1. 利润池高度集中,而不是“雨露均沾”

Section titled “1. 利润池高度集中,而不是“雨露均沾””

从现有数据大概能看出:

  • NVIDIA:

    • 单季数据中心收入 500 亿美元量级,毛利率约 75%,这已经是典型“印钞机”水平。
  • 其他厂商(包括部分 GPU 厂 / ASIC 厂):

    • 收入在几十亿到十几亿美元之间,
    • 毛利率、议价权、生态粘性都难以和 NVIDIA 同日而语。

行业分析普遍观点是:

目前 AI 加速芯片利润池,高度集中在少数几家头部厂商, 其他更多是“有营收、有故事,但未必有厚利”。

对散户来说, “大家都赢”的叙事很危险 —— 它会诱导你去买一篮子边缘玩家, 而真正挣钱的,可能只有那几家掌握标准 + 生态 + 成本曲线的公司。


2. 自研 ASIC 是长期威胁,主要对谁?

Section titled “2. 自研 ASIC 是长期威胁,主要对谁?”

自研芯片的长期影响,不是“马上干翻 NVIDIA”, 而是逐渐改变**“谁吃掉多少利润”的分配**。

  • 对 NVIDIA:

    • 短期:依然最受益,所有云厂商还在疯狂买它的卡;
    • 中长期:一旦 TPU / Trainium / Maia 在各家内部占到 15–25% 份额, 就会开始削弱 NVIDIA 的终极定价权(也就是大家吐槽的“GPU 税”)。
  • 对二线芯片厂 / 小厂:

    • 上有自研 ASIC 压价,下有 NVIDIA 生态压制,

    • 它们反而处在最难受的位置——

      “性能差一些、生态弱很多、价格又不便宜到极致”,

    • 很可能在淘汰赛中先出局。

所以:

“自研 ASIC 的子弹,未必先打在 NVIDIA 身上, 很可能先打中的是一圈缺乏生态、规模和成本优势的中小供应商。”


3. “无限算力时代”的三把剪刀:电力、资本、监管

Section titled “3. “无限算力时代”的三把剪刀:电力、资本、监管”

再强调一遍,算力不可能真的无限扩张:

  1. 电力和材料

    • AI 数据中心对电力、变压器、铜、冷却的需求,开始和全社会的能源基础设施抢资源,
    • 铜的长周期供给已经被机构预警会在 2030 年前后出现更严重的缺口。
  2. 资本回报率

    • 如果 AI 应用的商业变现赶不上 CapEx 投入的速度,
    • 股东会逼云厂商下调“砸钱曲线”,这对上游芯片厂就是直接刹车。
  3. 政策与监管

    • 能耗、碳排、数据中心选址、AI 风险监管等,一旦上量,都会变成硬约束,
    • 这方面现在还在酝酿阶段,一旦落地,会立刻影响算力扩张节奏。

五、普通投资者该怎么用这套认知?

Section titled “五、普通投资者该怎么用这套认知?”

如果要把上面这一整套拆解,浓缩成几条可操作的投资框架,我会给读者这样几条:

1. 不要被“谁替代谁”的简单剧情带节奏

Section titled “1. 不要被“谁替代谁”的简单剧情带节奏”
  • 短期看

    • NVIDIA 依然是 AI 算力中心,
    • TPU / Trainium / Maia 更多在巨头内部发挥作用。
  • 中长期看

    • 你要盯的不是“有没有新玩家”,
    • 而是“谁掌握了标准(软件生态)成本曲线”。

2. 把产业分成三层看,而不是一个大锅粥

Section titled “2. 把产业分成三层看,而不是一个大锅粥”

可以粗略切成三层:

  1. 算力芯片 / 模块提供者

    • NVIDIA、AMD、自研 ASIC(TPU / Trainium / Maia)、部分新型架构厂商;

    • 这里面真正长期赚厚利的,多半是:

      • 有生态(CUDA / 平台 / 中间件)、
      • 有规模(量产 + 供应链控制)、
      • 有成本优势(制程 + 封装 + 能效)的少数几家。
  2. 算力基础设施提供者

    • 云厂商(AWS / Azure / GCP 等)、数据中心运营商、电力与冷却解决方案供应商;
    • 他们一边吃 CapEx 需求,一边承担“回本压力”和政策风险。
  3. 算力的“上游应用”

    • 大模型公司 / AI SaaS / 垂直行业 AI 应用;
    • 他们决定这些 GPU / TPU 能不能真正转化为持续、可观的现金流。

3. 提醒读者警惕两种常见“坑”

Section titled “3. 提醒读者警惕两种常见“坑””
  1. “AI 概念股雨露均沾”陷阱

    • 看到所有人都造芯片、搞 AI,就以为所有股票都能吃到同样的红利;
    • 实际上利润高度集中,错选标的比错过赛道更致命
  2. “永远短缺”的情绪陷阱

    • 当大家都在喊“卡不够用、算力永远不够”时,

    • 你要多问一句:

      “哪一年开始,供给端 / 电力 / 监管会从‘短缺故事’ 变成‘价格压力、扩容放缓’的现实?”


六、小结:真正的产业逻辑一句话

Section titled “六、小结:真正的产业逻辑一句话”

把前面所有内容压缩成一句话给读者:

这不是“TPU vs NVIDIA vs Trainium 谁赢谁输”的游戏, 而是一场围绕“谁能长期掌控高性能算力 + 软件生态 + 成本曲线”的系统性战争。

短期,“能够稳定交付顶级算力” 的玩家都能吃到洪水般的需求; 长期,利润只会向极少数具有生态优势、规模优势和成本优势的人集中。

对普通投资者来说, 与其每天盯着“谁要替代谁”的段子,不如冷静看三件事:

  1. 谁的产品是行业的“默认选项”?(标准 & 生态)
  2. 谁在降低每单位算力成本的能力最强?(成本曲线)
  3. 谁能穿越 CapEx 高峰后的“理性回报期”?(商业模式 & 现金流)

Google Antigravity 会写代码也会画图:IDE 里一键生成 UI 和配图

直接说重点: Google Antigravity 这个新 IDE,不只会写代码,还能在编辑器里「顺手帮你画图」——UI 草图、Logo、营销图都能一键生成。

一、Antigravity 是什么鬼?为啥工程师都在聊

Section titled “一、Antigravity 是什么鬼?为啥工程师都在聊”

简单理解:

Antigravity = VS Code 外形 + 多智能体 AI 内核 + Gemini 3 Pro + 内置图片生成

它是 Google 推出的 AI 优先(agent-first)开发平台,在编辑器、终端、内置浏览器里跑一群 AI Agent,帮你干从规划、写码、测试到 Demo 的一整套活。([Google Developers Blog][1])

Antigravity 目前是 免费公测版,支持 Windows / macOS / Linux,用的是 Gemini 3 Pro 为主,也能接 Claude Sonnet 4.5 和一些开源模型。([Wikipedia][2])

对我们这种写前端、做产品 Demo、搞 side project 的人来说,它就是:

打开 IDE = 打开一个「带画师和小工的工作室」


二、Antigravity 里怎么「画图」?底层是啥模型

Section titled “二、Antigravity 里怎么「画图」?底层是啥模型”

1)内置两套图像模型:Imagen 3 + Nano Banana Pro

Section titled “1)内置两套图像模型:Imagen 3 + Nano Banana Pro”

按官方和社区的说法,现在 Antigravity 里的图片生成主要有两条线:([Google Antigravity][3])

  • 默认:Imagen 3 用来在 IDE 里生成插画、配图,偏通用创作。

  • 进阶:Nano Banana Pro(Gemini 3 Pro Image) 这是 Google 新推的图像模型,支持:

    • 更清晰的文字渲染(海报里的英文小字不再糊)
    • 更复杂的逻辑和布局(比如数据可视化、信息图)
    • 更高分辨率(1K / 2K / 4K 输出)
    • 支持多张参考图做风格 / 构图统一

官方博客和文档都写了:Nano Banana Pro 已经整合进 Antigravity,可以在 Antigravity 里直接调用它生成 UI Mockup、Logo、营销图等各种视觉素材。([Google Antigravity][3])

2)图片生成不是单独玩具,而是工作流的一环

Section titled “2)图片生成不是单独玩具,而是工作流的一环”

InfoWorld 的上手体验里专门提到:Antigravity 的 Agent 可以直接调用 Nano Banana,帮你做 界面 Mockup 和图像素材。([InfoWorld][4])

典型场景比如:

  • 为一个新页面生成几版 UI 草图
  • 为产品生成 Logo 备选方案
  • 为营销页生成插画 / 配图
  • 为文档自动配图、做示意图

有趣的是,有作者测试时,因为图像服务超负载,Agent 生成图片失败了一阵,它直接「换路子」,改成写了一整个 HTML/CSS 的界面来当 Mockup。这就是 Agent 工作流的味道:

“要么给你图,要么给你能跑的前端页面。”


三、对前端、产品和独立开发者有啥实际好处?

Section titled “三、对前端、产品和独立开发者有啥实际好处?”

1)「边写需求边出图」的开发体验

Section titled “1)「边写需求边出图」的开发体验”

真实用户在 Reddit 分享了一个例子:

做房车租赁网站,需要 6 张热门目的地的配图。 他直接在 Antigravity 里让 Agent 生成合适的照片,并自动应用到卡片组件里,大概 1 分钟搞定。([Reddit][5])

这跟我们传统流程完全不一样:

以前:写完页面 → 打开图库网站 / 画图工具 → 下载 / 导出 → 再塞回项目 现在:在 IDE 里一句话 → 图片 + 代码一起就位

对赶 MVP、黑客松、内部 Demo 的人来说,这相当于把「找图 / 画图」这块时间压缩到几分钟。

2)UI 设计和实现之间的墙被打薄了

Section titled “2)UI 设计和实现之间的墙被打薄了”

Antigravity 的 Agent 会把生成的图片、Mockup、代码改动,都整理成 Artifacts(成果物),你可以:([Google Antigravity][6])

  • 一边看 Mockup,一边看代码 diff
  • 在 Artifact 上直接评论:「按钮再大一点」「主色调换成蓝色」
  • 再让 Agent 按反馈改图、改代码

这对团队协作也挺友好:

  • 产品 / 设计:在 Artifact 页面用自然语言提意见
  • 开发:专心看 diff 和逻辑
  • Agent:负责在中间跑腿、改图、改代码

3)单人创业者:一个 IDE 顶一个小团队

Section titled “3)单人创业者:一个 IDE 顶一个小团队”

如果你是一个人做项目:

  • 文案:让模型写个 Landing Page 副本
  • 设计:让 Antigravity 生成插画、UI Mockup、Logo 草稿
  • 开发:复用同一个 Agent,把图塞进前端代码里,顺便帮你写 API / 后端

等于:

打开 Antigravity = 同时请了一个文案、一个画师、一个初级工程师 你只需要做「总监」和「拍板的人」


四、实际体验:在 Antigravity 里生成一张图,大概要走几步?

Section titled “四、实际体验:在 Antigravity 里生成一张图,大概要走几步?”

根据 Google 的官方 Codelab 和几篇教程,流程大概是这样:([Google Codelabs][7])

以下是「图 + 前端代码」的一种典型玩法,给你一个脑补画面。

步骤 1:开一个任务,让 Agent 帮你做页面和配图

Section titled “步骤 1:开一个任务,让 Agent 帮你做页面和配图”

在 Agent Manager 里新建一个 Task,比如:

「帮我做一个健身 App 的着陆页,包含 hero section,生成一张主视觉插画,用来放在页面顶部。」

Agent 会自动:

  • 规划任务(生成一个 Task Plan)
  • 决定需要哪些文件、哪些图
  • 在编辑器里创建 / 修改代码文件

步骤 2:调用图片模型生成视觉稿

Section titled “步骤 2:调用图片模型生成视觉稿”

在执行计划里,Agent 会调用内置的图片模型:

  • 默认用 Imagen 3
  • 如果你按教程配置了脚本,也可以指定走 Nano Banana Pro(Gemini 3 Pro Image),适合做更复杂、带文字的设计稿([Zenn][8])

它会在 Artifact 面板里给你一组图片候选:

  • 你能直接预览
  • 不喜欢就让它「regenerate with …」
  • 比如加一句「make it more minimal, more dark theme」

根据体验文章,多数人会选择两种方式:([Medium][9])

  1. 由 Agent 直接改代码

    • Agent 把图片保存到项目静态资源目录
    • 自动更新 React / Vue / Next.js 页面里的 <img>Image 组件
  2. 你手动挑图 + 调 UI

    • 手动选中某张图
    • 自己微调布局、文案和样式

有些人甚至用它来做「图片优化工具的 UI + 配图」,完全当成一个图形产品的 AI 搭档来用。([Enchanter Consulting][10])


五、别忘了配额和安全坑:太爽也要踩刹车

Section titled “五、别忘了配额和安全坑:太爽也要踩刹车”

最近 Google 和 OpenAI 都在悄悄收紧免费额度:

  • Gemini 3 Pro 和 Nano Banana Pro 的免费调用次数被压缩
  • 免费用户每天能生成的图片张数不多,大概 2~3 张浮动([TechRadar][11])

这意味着:

  • Antigravity 里狂刷图一定会撞配额
  • 做产品 Demo / 内部汇报够用
  • 真要量产素材,可能就得上付费套餐或配合其它工具

2)IDE 里接 Agent,要对权限有点敬畏

Section titled “2)IDE 里接 Agent,要对权限有点敬畏”

安全研究团队已经指出,Antigravity 这种「Agent 自动跑终端命令、访问文件」的设计,本身也带来一些安全风险,比如:([TechRadar][12])

  • prompt injection 让 Agent 执行奇怪的命令
  • 不小心把 .env 或敏感日志读出来
  • 权限开太大时,甚至可能误删文件

跟图片本身无关,但是:

既然你都让它帮你改代码、传文件、跑脚本了,顺手检查一下权限设置值了。 图片生成功能很酷,但别顺手把服务器也“画”没了。


六、写在最后:IDE 里自带「画师」,你会用吗?

Section titled “六、写在最后:IDE 里自带「画师」,你会用吗?”

简单总结一句:

Antigravity 把「会写代码的 AI」升级成了「会写代码、会画图、会跑浏览器的一整队 Agent」。

对我们这类做产品、做前端、做独立开发的人来说,它主要有三层价值:

  • MVP 和 Demo 速度明显加快
  • UI / 视觉和代码之间,不再是两条断开的流水线
  • 一个人做项目,也能玩出「小团队」的工作流

你自己会在哪些场景里用 IDE 自带的图片生成功能?

  • 做公司内部评审的 Demo?
  • 做 side project 的 Landing Page?
  • 还是直接当低成本「设计搭子」?

欢迎在评论区聊聊你的想法,也可以转给身边的前端 / 产品 / 独立开发者一起试试这波新工具。

2025保姆级教程:手把手教你申请Google开发者账号(含邓白氏/支付攻略)

【导语】 随着国内移动互联网流量见顶,“出海”已成为众多开发者的必选项。而作为全球最大的安卓应用分发平台,Google Play 无疑是出海的第一站。

然而,从2024年开始,Google对开发者账号的审核力度空前严格。很多小伙伴卡在了注册环节:要么网络环境不过关被秒封,要么卡在邓白氏编码申请,甚至连25美元都付不出去。

今天,我们就来拆解注册Google Play开发者账号最关键的三个环节,助你顺利开启出海掘金之路!


第一关:稳定的“网络环境” (Network)

Section titled “第一关:稳定的“网络环境” (Network)”

—— 账号防关联的第一道防线

很多新手在注册时最大的误区是:只要能打开Google网站就行。大错特错!

Google的风控系统非常强大,它会记录你的IP地址、设备指纹和浏览器Cookies。对于开发者注册来说,“能访问”只是基础,“干净且稳定”才是核心。

💡 避坑指南:

  1. 固定IP很重要: 注册过程中(以及后续登录后台),尽量保持IP地址的固定。如果你的IP一会儿在跳到美国,一会儿跳到新加坡,Google会认为账号存在安全风险或被盗,直接导致封号或验证失败。
  2. 浏览器隔离: 建议使用Chrome的无痕模式,或者专门创建一个新的浏览器配置文件(Profile)用于注册。坚决不要在一个浏览器内同时登录多个不同的开发者账号,一旦其中一个出问题,很容易因为Cookies关联而导致“连坐”。
  3. 物理环境: 如果条件允许,使用一台从未注册过Google账号的干净电脑进行操作是最稳妥的。

⚠️ 警告: 网络环境的纯净度直接决定了账号的“存活率”。很多“秒封”的情况,都是因为IP地址曾被列入黑名单。


第二关:邓白氏编码 (D-U-N-S Number)

Section titled “第二关:邓白氏编码 (D-U-N-S Number)”

—— 企业身份的“全球身份证”

自2023年底起,Google Play强制要求注册“组织/公司”类型的账号必须提供邓白氏编码(D-U-N-S Number)。这成为了很多中小团队最大的拦路虎。

什么是邓白氏编码? 它是一个由邓白氏公司(Dun & Bradstreet)分配的9位数字,用于全球范围内识别企业的身份。简单来说,就是验证你家公司是不是真实存在的。

🛠️ 申请攻略:

  1. 准备材料: 营业执照原件及英文翻译件(注意:公司名称的英文翻译必须标准,因为这将显示在Google Play商店的开发者信息中)、公章、联系人信息。
  2. 申请渠道:
    • 推荐渠道: 通过 Google 提供的专用链接Apple开发者支持页面 进入邓白氏申请入口。通常这些巨头合作通道的处理速度比直接去邓白氏官网申请要快,且通常免费。
  3. 时间预期: 申请提交后,通常需要5-14个工作日。拿到编码后,可能还需要等待Google数据库同步(最长可能需要48小时),之后才能在Google Play后台填入。

📝 划重点: 申请邓白氏编码时的公司英文名地址,必须与你在Google Play后台填写的完全一致!任何一个字母的差异都可能导致验证失败。


—— 25美元的入场券

不同于Apple Developer每年99美元的订阅制,Google Play目前实行的是一次性支付25美元(约合人民币180元左右)的注册费。

听起来很简单?但很多国内开发者倒在了“支付失败”这一步。

💳 支付难点与对策:

  1. 卡种限制: Google Play不支持支付宝或微信支付。你需要一张支持外币支付的信用卡,通常是 VisaMasterCard
  2. 信用卡归属地: Google的风控会核对“支付卡的发行国”与“账号注册国”以及“当前IP归属地”。
    • 如果你注册的是中国区开发者账号(使用中国营业执照),使用国内银行发行的Visa/MasterCard双币信用卡通常是可以支付成功的。
    • 如果你注册的是海外账号(如美国号),严禁使用国内信用卡支付,必须使用对应国家的卡,否则极易触发风控。
  3. 账单地址: 填写信用卡信息时,账单地址建议如实填写。

💡 小贴士: 如果支付一直报错,不要疯狂重复点击尝试,这会触发系统的欺诈保护。建议联系发卡行确认是否开通了境外无卡支付功能,或者换一张卡隔天再试。


搞定了网络环境、拿到了邓白氏编码、成功支付了25美元,恭喜你,你已经完成了90%的硬性工作!

接下来,你还需要完成身份验证(上传身份证/护照)以及最新的20人封闭测试要求(针对个人账号),就可以正式发布应用了。

官方参考文档: 为了确保信息的准确性,建议大家在操作前仔细阅读Google官方的最新指南: 注册 Google Play 开发者帐号 - Play 管理中心帮助

祝大家出海顺利,爆款连连!🚀


[互动话题] 你在注册Google Play账号时遇到过哪些坑?欢迎在评论区留言交流!👇

Anthropic 内部员工 AI 开发调查:前端最香,架构最难交给 AI

引言:AI 真的让工程师更高效了吗?

Section titled “引言:AI 真的让工程师更高效了吗?”

这一年,身边做开发的朋友,都在问同一个问题:

“我天天在用 Claude / Copilot,但到底值不值?有没有被厂商忽悠?”

刚好,Anthropic 自己把内部 132 名工程师、研究员的真实使用情况,做成了一份很详细的调查和访谈,外加好几张数据图。

这就像是AI 厂商给自己做了一次体检报告。 谁在真香,谁在踩坑,数据都写在脸上了。

今天就带你用“打工人视角”,拆一下这份报告,顺便聊聊: 在软件工程里,哪些任务用 AI ROI 最高,哪些地方别急着全交给模型。


一、这是一份什么样的内部调查?

Section titled “一、这是一份什么样的内部调查?”

Anthropic 找了 132 名工程师和研究员,问了他们一堆非常具体的问题:

  • 你每天有多少工作是和 Claude 一起做的?
  • 主要用它干什么?调试、写新功能、重构、写测试、写文档,还是做设计和规划?
  • 对每一类任务,用 Claude 后花的时间变多还是变少?
  • 产出的量(代码、文档、可交付成果)变多还是变少?

他们还做了对比:

  • 一年前,员工觉得自己大概有 28% 的工作在用 Claude,自报生产力 +20%。
  • 到了现在,这个数字涨到 59% 的工作用 Claude,平均自报生产力 +50%,其中大约 14% 的“重度玩家”认为自己提高 超过 100%

另外一条独立研究也挺猛:Anthropic 用 10 万条真实对话估算,中位任务的完成时间减少了 80% 左右

听起来很夸张,但工程师都懂——自报生产力要打个折。 所以更有价值的是:按任务细分,哪些地方真的收益大,哪些地方水分多。


二、整体现象:时间只省一点点,产出涨得很猛

Section titled “二、整体现象:时间只省一点点,产出涨得很猛”

那张你看到的 Figure 就是核心结论之一:

  • 左边:用 Claude 后,做某类任务 花的时间 是减少、没变,还是增加
  • 右边:在同样时间里,产出的工作量 是变多了多少

把所有任务拉开来看,有两个有意思的模式:

  1. 大多数任务,时间是略微下降的

    • 很多点落在 “-1 左右”(轻微减少),
    • 意味着:并不是每个人都节省了一半时间,更多是省一点点
  2. 但产出量普遍涨得更明显

    • 右图里,大部分点在 “+1 ~ +2” 区间,
    • 说明即便时间只省了一点,写出来的东西多很多

还有一个隐藏细节: 原始数据里,有一小撮人,在某些任务上 时间反而变多了

访谈里,他们的解释特别真实:

  • 要帮 Claude 收拾它写出来的烂摊子,重搞调试和清理
  • 要花精力理解自己没写过的代码
  • 或者因为有了 Claude,干脆做得更细、更认真,比如更多测试、更多探索

一句话总结:

时间并不是凭空消失,而是被“再投资”到了更多工作上。


三、从 ROI 看任务类型:前端最香,设计和 Infra 最吃亏

Section titled “三、从 ROI 看任务类型:前端最香,设计和 Infra 最吃亏”

结合图里的分布,再对照我自己的使用体验,能看到一个很清晰的 ROI 排名。

1)ROI 天花板:前端、新功能、调试、测试、文档

Section titled “1)ROI 天花板:前端、新功能、调试、测试、文档”

这些任务,有几个共同点:

  • 结果非常容易验证

    • 前端:跑起来一看 UI 就知道有没有问题
    • 调试:复现 bug、跑测试,要么过要么挂
    • 测试和文档:格式、覆盖范围一下子就能看出来
  • 任务边界比较清晰

    • “把这个组件改成响应式布局”
    • “为这段代码补一组单测”
    • “帮我写一段 README,目标读者是新同事”

这类工作里,人类最烦的是: 机械、重复、写起来枯燥,但好不好一眼就能看出来。

这刚好踩中了 Anthropic 员工总结的一个关键词:

“我更愿意把容易验收的任务丢给 Claude。”

报告还提到,工程师越来越常用 Claude 来做前端可视化、实现 UI、做小工具, 甚至让后端工程师也敢去写前端,把自己变成“准全栈”。

从 ROI 角度看,这些任务就像短平快项目

  • 模型干活
  • 人类验收
  • 出问题直接回滚重来
  • 新手也可以监督

前端在这波里是明显受益者——画面、交互、样式都能快速迭代, 你只要盯着用户体验本身,而不是纠结 CSS 细节。

2)ROI 较低:设计 & 规划、Infrastructure / DevOps

Section titled “2)ROI 较低:设计 & 规划、Infrastructure / DevOps”

再看图的另一端:高层设计、系统规划、Infra / DevOps

从 Anthropic 的报告里可以看到两个现象:

  • 员工明确表示:

    • “我通常保留高层思考和设计在自己手里,把实现、调试类任务交给 Claude。”
    • 设计和规划类任务,在问卷里生产力提升最小
  • Infra 和 DevOps 相关任务,用得没那么频繁,时间和产出提升也比较有限。

这就和我们的“软件工程常识”高度吻合:

越依赖经验、上下文、品味、组织策略的工作,越难完全交给 AI。

比如设计一个新系统架构,你要考虑:

  • 五年后的业务形态
  • 团队现在的技术栈
  • 谁来维护、谁来值班
  • 成本预算、合规、安全

Claude 可以帮你:

  • 生成几版架构图
  • 帮你列风险清单和 trade-off
  • 写设计文档初稿

但真正拍板的人,还是你。 AI 在这里更像一个聪明顾问,不是拍板的 CTO

Infra / DevOps 也是一样:

  • 真正困难的,是

    • 熟悉公司复杂的网络拓扑
    • 一堆历史债务的脚本和配置
    • 出事时谁负责背锅
  • AI 可以帮你写脚本、解释 log、起草 runbook

  • 很难一个命令直接上生产,不看就执行

所以从 ROI 来看:

前端、新功能、调试、测试、文档 → 投入少、收益快

设计、规划、Infra → 价值高,但 AI 很难“直接帮你省大量时间”


四、可验证性:决定 AI 效益的那条“分水岭”

Section titled “四、可验证性:决定 AI 效益的那条“分水岭””

Anthropic 在访谈里,总结了一套很实用的“委托原则”:工程师更愿意把这些任务交给 Claude:

  • 容易验证
  • 复杂度不高或边界清晰
  • 质量要求没那么极端严苛(比如一次性的 debug 脚本)
  • 重复、无聊,但又不能不做的活

这套原则其实可以抽象成一个词:可验证性

你可以这样想象:

  1. 有单测 / 有 demo 的任务,适合 AI 冲锋

    • 比如前端页面、后端接口、数据处理脚本
    • 写完就跑一遍,看结果是不是在预期范围内
  2. 靠“味道”和“判断”的任务,要人类把关

    • 例如系统设计、体验设计、安全策略
    • 很多时候没有标准答案,只有 trade-off
  3. 局部问题 vs 全局问题

    • 改一个组件、写一段文档,是局部问题
    • 规划跨团队的技术路线,是全局问题

Claude 在“局部、可验证”的任务上 ROI 爆表, 在“全局、模糊”的任务上,更适合帮你想思路、列清单、做对比, 而不是直接给最终方案。


五、给普通团队的落地建议:别急着让 AI 当架构师

Section titled “五、给普通团队的落地建议:别急着让 AI 当架构师”

如果你在带一个工程团队,或者自己就是个人开发者,可以参考 Anthropic 的玩法,给 AI 划一条清晰的“势力范围”。

1)先把 AI 当成“苦力 + 记录员”

Section titled “1)先把 AI 当成“苦力 + 记录员””

优先让 Claude 负责这些:

  • 调试相关

    • 让它帮你定位栈追踪、解释报错、重现 bug
    • 写临时脚本做验证
  • 测试 & 文档 & 注释

    • 自动补单测、生成 mock
    • 总结 PR 变更、生成 README、接口说明
  • 前端和可视化

    • 生成页面骨架、样式方案
    • 做内部工具、仪表盘、数据可视化
  • 小型重构 & “去纸割”

    • 帮你把一坨屎山拆成函数
    • 改变量名、提取公共逻辑

这些地方,你只要多写几个验收条件, 效果会远好于让它“从 0 思考一个架构”。

2)设计和规划:把 AI 当头脑风暴伙伴

Section titled “2)设计和规划:把 AI 当头脑风暴伙伴”

在高层设计上,Claude 更适合这么用:

  • 让它列出多种架构方案和优缺点
  • 帮你写 RFC / 技术方案初稿
  • 模拟不同角色视角的 review(比如“安全团队会问什么问题?”)

决策权取舍最终署名,还是掌握在你手里。

3)Infra / DevOps:脚本和说明书可以交,生产命令要自己敲

Section titled “3)Infra / DevOps:脚本和说明书可以交,生产命令要自己敲”

在 Infra 场景里,可以放心交给 AI 的,是这些东西:

  • 解释复杂的 Kubernetes YAML、Terraform 配置
  • 写 CI/CD pipeline 模板
  • 帮你阅读日志,先做一版归因分析

真正执行到生产环境的命令、变更计划,需要:

  • 人类自己再看一遍
  • 多一道同事 review
  • 必要时先在 staging 走一遍流程

可以给团队定一个简单规则:

“凡是直接影响生产的命令,必须由人类亲手改、亲手敲。”

4)给自己做一份“AI 任务地图”

Section titled “4)给自己做一份“AI 任务地图””

结合 Anthropic 的做法,你完全可以给团队画一张表:

  • 行:Debug / 前端 / 新功能 / 测试 / 文档 / 重构 / 设计 / Infra …

  • 列:

    • 是否交给 AI 做初稿?
    • 是否允许 AI 独立完成?
    • 最终需要谁 review?

这张表就是你们自己的 “AI 使用策略”, 可以每季度调整一次,等模型升级了,再把更多任务划进来。


六、未来工程师的样子:更全栈,也更需要判断力

Section titled “六、未来工程师的样子:更全栈,也更需要判断力”

调查里,有一条我很有共鸣:

  • 员工估计,27% 的 Claude 辅助工作,在没有 AI 的情况下根本不会做, 比如更多的重构、更多仪表盘、更多 internal 工具。

也就是说,Claude 不只是帮你“把本来的工作做快一点”, 而是让你多做了一堆原本“来不及做”的好东西

同时,很多人也在担心:

  • 自己写代码的时间变少了,会不会手生
  • 监督 AI 需要经验,可经验又在一点点被 AI 抢走。

这就是所谓的“监督悖论”:

用好 AI 需要更强的判断力,而判断力本身又需要亲自下场练级。

所以比较健康的做法,可能是:

  • 在 ROI 高的任务里大胆用 AI 提速
  • 但给自己保留一部分“手写训练场”
  • 把 AI 当成你升级技能的加速器,而不是替代品

长期看,工程师会变成怎样?

  • 更像 产品 + 架构 + 项目经理 + AI 驯兽师 的混合体
  • 更关注“要做什么”和“为什么做”, 而不是“这一行代码具体写成什么样”。

结语:把 AI 用对地方,你就是团队里的“生产力套利者”

Section titled “结语:把 AI 用对地方,你就是团队里的“生产力套利者””

Anthropic 的这份内部调查,其实给我们提供了一个很清晰的思路:

  • 别期待 AI 在所有任务上都 10 倍提速
  • 真正的差别在于:你敢不敢、会不会挑对任务去交给它

如果你是工程师、技术负责人, 现在就可以拿出纸和笔,列一个自己的任务清单:

  • 哪些事容易验证重复又枯燥,可以马上交给 Claude?
  • 哪些事涉及高层设计和团队策略,只用它做“智囊团”,而不是“代写”?

把这张“AI 任务地图”画出来,你在团队里的生产力,就已经领先一大截了。

从前端到监控,这就是一套可落地的 Agentic AI 工程地图

这两年,「Agentic AI」「AI Agent」这几个词,已经被说烂了。

很多人一听“智能体”,脑子里就是:

“我也能做一个,用大模型 + Prompt + LangChain 就行了嘛。”

结果真上项目时才发现: 一个能跑在生产环境里的 Agentic AI,远远不是一条 llm(prompt) 这么简单。

你今天看到的这张“冰山图”,其实就把一套可落地的 Agentic AI 技术栈摊开给大家看了个明白: 上面露出水面的,是你能看到的聊天界面、Web App; 下面沉在水里的,是一整套文档处理、向量数据库、检索、监控和部署体系。

这篇文章,我想用尽量“人话”的方式,带你从上往下,把这座“Agentic AI 冰山”走一遍。


一、露在水面上的,是你看到的那层“壳”

Section titled “一、露在水面上的,是你看到的那层“壳””

1. 前端:你以为是“界面”,其实是“体验引擎”

Section titled “1. 前端:你以为是“界面”,其实是“体验引擎””

图里放的是 React、Next.js、Streamlit 这类前端框架,配上 Azure App Service 这类托管环境。

很多 AI 项目一开始,只是给模型套个对话框,看起来能用; 但等到真要给内部同事、客户用,问题就来了:

  • 要支持多轮对话历史
  • 要做文件上传、结果导出、可视化
  • 要做权限控制、组织维度统计

这些都落在前端 + 简单后台上。

一句话:前端不是“顺便写一下 UI”,而是你整套 Agent 体验的“控制台”。 你想的不清楚,用户就只会觉得:

“这不就是个加了皮肤的 ChatGPT 吗?”


二、冰山中部:让 Agent “读得懂世界”的知识管线

Section titled “二、冰山中部:让 Agent “读得懂世界”的知识管线”

Agentic AI 真正的威力,在于“会理解你自己的数据”。 也就是图里这几层:文档摄取 → 切块预处理 → 向量表示 → 向量库 → 检索层

1. 文档摄取:给 Agent 喂干净的“原材料”

Section titled “1. 文档摄取:给 Agent 喂干净的“原材料””

像 Microsoft Fabric、Azure AI OCR、Apache Tika、LangChain 这些组件,做的事情很朴素:

  • 把 PDF、Word、网页、截图里的内容统一抽出来
  • 去掉噪音、广告、乱七八糟的格式
  • 做结构化,比如目录、标题、段落、表格

可以把它想象成:

给健身的人吃饭,先得保证“真肉真菜”,而不是垃圾食品。

你要是直接把一堆 PDF 生扔给模型,还指望它帮你做“企业搜索、知识助手”,基本是在玩火。

2. Chunking & 预处理:把知识切成模型能消化的小块

Section titled “2. Chunking & 预处理:把知识切成模型能消化的小块”

图里像 spaCy、Hugging Face、LangChain,以及 Azure AI Search 的一些处理能力,就是帮你做这件事:

  • 按段落、逻辑结构智能切块(chunking)
  • 识别实体、主题,做点轻量 NLP 预处理
  • 有的还会加上元数据标签(比如来源系统、时间、业务线)

做不好这一步,会发生什么?

  • 要么 chunk 太大:超长上下文,贵且不准
  • 要么 chunk 太碎:模型每次看到一堆“碎片”,答非所问

工程上比较常见的打法,是根据文档结构 + 字数 + 语义,做一个动态的切块策略,再配上重叠窗口,保证“一问不漏关键信息”。

3. Embeddings:把企业知识压成“向量指纹”

Section titled “3. Embeddings:把企业知识压成“向量指纹””

这层就是 Azure OpenAI、OpenAI、Cohere 等 Embedding 模型发挥作用的地方。

通俗讲,就是帮你把:

文本 → 高维向量

向量之间的距离,代表“语义相似度”。

为什么这一步关键?

因为企业里的问题基本长这样:

  • “帮我查一下某产品 2023 年退货率异常的原因?”
  • “把这几个版本的合同条款差异列出来?”

没有人会按原文去搜,大家都是“自然语言胡乱一问”, Agent 得靠语义检索,在你的知识库里快速找到真正相关的内容

4. 向量数据库:给 Agent 一块“健身房专用硬盘”

Section titled “4. 向量数据库:给 Agent 一块“健身房专用硬盘””

图里列了 Azure AI Search、Cosmos DB、PostgreSQL + 向量插件,还有 Milvus、FAISS 等等。

现实世界里,你基本要考虑几件事:

  • 数据量多大的时候,检索还能保持毫秒级响应
  • 支不支持混合检索(向量 + 关键字 + 过滤条件)
  • 安全和隔离怎么做,比如按租户、按部门、按项目分库

这里其实就是在选你的“Agent 记忆中枢”。 选错了,你后面所有“RAG + Agent”能力都会卡在性能、成本上。

5. Retrieval Layer:让 Agent“先查再想”

Section titled “5. Retrieval Layer:让 Agent“先查再想””

这层才是大家常说的 RAG:

  • LangChain、LlamaIndex、Haystack 做的是检索编排
  • Azure AI Search 这种则提供内建的检索 + 排序能力

你可以给 Agent 设计一个固定套路:

用户提问 → 检索 N 条相关知识 → 让大模型在“证据”基础上作答 → 必要时把引用也返回给用户

这一步做得好, Agent 的“幻觉率”和“胡说八道”会下降一个数量级


三、Prompt 工程层:从“写提示”升级到“设计策略”

Section titled “三、Prompt 工程层:从“写提示”升级到“设计策略””

图上放了 Prompty、LangChain、DSPy。

很多人对 Prompt 的理解,还停留在“想几句好点的英文描述”。

但 Agentic AI 里的 Prompt,更接近于一种:

“决策策略 + 工作流编排语言”

大概可以分几类:

  • 系统提示:定义角色、语气、边界
  • 工具调用策略:什么时候查知识库、什么时候调 API
  • 多 Agent 协作:规划、执行、复盘三个角色如何互相对话

像 DSPy 这类工具,还会尝试“自动优化 Prompt”, 有点类似把 Prompt 当“参数”, 通过数据集和反馈信号去调优。

当你开始把 Prompt 当“可实验、可迭代的产品配置”来管理,而不是随手写写,大模型应用的上限才会被打开。


四、LLM 层:不是“选个模型”,而是“选个大脑组合”

Section titled “四、LLM 层:不是“选个模型”,而是“选个大脑组合””

图里提到 Azure OpenAI,外加 LLaMA、Mistral 这些模型。

现实项目里,单模型一把梭已经不太现实了, 更多是在做“模型拼盘”:

  • 便宜模型跑大部分闲聊和简单任务
  • 专业模型跑代码、法律、医学等垂直任务
  • 企业内部还会混合开源模型 + 商业模型,做隐私和成本权衡

你可以把这层理解为:

Agent 的“多核大脑池子”

它要对上面那些“Prompt 策略”和“检索结果”负责, 做出尽可能可靠、符合业务逻辑的决策。


五、监控 & 评估:Agent 不监控,就会慢慢变成“定时炸弹”

Section titled “五、监控 & 评估:Agent 不监控,就会慢慢变成“定时炸弹””

图上有 Azure Foundry、OpenTelemetry、Grafana。

很多团队栽的一个坑,就是:

“应用上线了,大家能用,就算成功了。”

过几周你会发现:

  • 用户经常吐槽“这次回答跟上次不一样”
  • 模型升级之后,部分场景效果变差,却没人发现
  • 某些 Prompt 每天被调用上万次,成本直接炸穿预算

这时候,**可观测性(Observability)和评估(Evaluation)**就很关键:

  • 记录每一次调用的输入、输出、使用的工具、耗时、成本
  • 对关键场景,建立一套自动评估集,新版本一来就跑对比
  • 把这些指标挂在 Grafana 一类的仪表盘上,方便运营和技术一起盯

一句话:

没有监控的 Agent,就像没有后视镜的车。开得越快,越危险。


六、基础设施 & 部署:让 Agent 从“实验室玩具”变成“生产力工具”

Section titled “六、基础设施 & 部署:让 Agent 从“实验室玩具”变成“生产力工具””

最底层是 Azure Container Apps、AKS、Docker、Kubernetes 这些东西。

它们解决的问题其实就两个字:撑得住

  • 撑得住高并发
  • 撑得住高可用要求(不能总挂)
  • 撑得住多环境(开发、测试、预发、生产)

很多人做 Demo 时觉得一切都好: “本地跑得挺快呀。”

但到生产环境,你要考虑:

  • 横向扩容、自动伸缩怎么做?
  • 模型服务和业务服务怎么拆分?
  • 敏感数据如何隔离、审计?

这些东西,都是冰山最底下那一层的工程细节。 你越早意识到它的存在,后面返工就越少。


七、给想做 Agentic AI 的你,一个落地路线建议

Section titled “七、给想做 Agentic AI 的你,一个落地路线建议”

如果你现在在公司里,正打算做一个“智能客服”“内部知识助手”“AI 运营小助手”,可以这样想路线:

  1. 先从一个清晰场景入手 比如“让运营能秒查任何一条历史活动数据”,而不是“做个啥都能聊的 Agent”。

  2. 用最简单的前端 + RAG 管线跑通 MVP 一开始不用上太复杂的多 Agent 调度, 能做到:“问业务问题 → 查知识库 → 给出引用答案”,就已经很能打。

  3. 从一开始就留好监控和评估的钩子 哪怕一开始只做最简单的日志 + 若干典型问题集, 后期调优会省非常多时间。

  4. 把这张冰山图当做“技术债清单” 想清楚:

    • 哪几层是现在必须做的
    • 哪几层可以后面逐步补上
    • 哪几层可以用云厂商/开源方案“先借用一下”

等你把第一版 Agent 做到团队日常离不开, 再慢慢往下挖这座冰山, 你会发现:

真正难的不是“会不会用大模型”, 而是“能不能把大模型嵌进业务,跑得稳、跑得久、跑得起”。


结语:Agentic AI,不是一个新名词,而是一整套新工程范式

Section titled “结语:Agentic AI,不是一个新名词,而是一整套新工程范式”

回到那张图。

水面之上,是用户看到的“炫酷 AI 应用”; 水面之下,是一整套从数据、模型到监控、部署的工程体系。

如果你现在是开发、产品,或者正在考虑用 AI 提升业务效率, 我非常建议你把这张“Agentic AI 冰山图”保存下来, 当成一张长期参考的工程地图

等下次你再被催着做“一个 AI Agent Demo”时, 可以把这张图甩给对方,笑着说:

“我们可以先做一个在水面上看得见的部分, 但要想跑进生产,这下面一整块冰山,也迟早得补齐。”

你觉得, 在你现在的工作/项目里,这座冰山哪一层最难? 欢迎在评论区聊聊,你遇到过最“离谱”的 AI 项目需求是什么。

12月~明年1月,美股投资者必须盯紧的几件大事

进入12月,美股迎来一年里最「魔性」的时间段: 一边是历史上胜率很高的「圣诞行情」,一边是利率决议、通胀数据、AI 龙头财报、日元加息预期、美国政府财政与美联储人事等一堆雷同时堆在一个多月里。

11月,美股走了一个「先杀情绪、再拉预期」的过山车:

  • 上半月,AI 泡沫担忧+降息预期降温→科技股大跌
  • 下半月,政府关门结束+降息预期重新升温→三大指数集体反弹

接下来 12 月到明年 1 月,有几个关键时间点,会共同决定:

  • 美联储是否开启新一轮降息周期
  • AI 投资是不是「真金白银」而不是 PPT 故事
  • 全球流动性会不会从「超级宽松」悄悄切换到「略微收水」
  • 美国财政和政治剧本,是持续拉扯还是再次失控

时间均为北京时间,方便直接写在日历上做计划。

12月1日:美联储正式结束 QT(缩表)

  • 依据 10 月 28–29 日议息会议决定,自 12 月 1 日起停止资产负债表缩减,QT2 正式收官

12月9–10日:美联储 12 月议息会议

  • 12 月 10 日 14:00 美东(11 日凌晨 3 点 北京时间)公布利率决议与声明
  • 同日 14:30 美东,鲍威尔召开发布会
  • 市场当前普遍预期:再降息 25bp 的概率 >80%

12月18–19日:日本央行议息会议

  • 12 月 1 日,植田和男在名古屋发言,明确表示会在 12 月会议上讨论加息利弊
  • 提到利率升到 0.75% 后再细讲路径,这是到目前为止最鹰的信号之一

12月30日凌晨 3 点(31 日):美联储 12 月会议纪要

  • 美联储日程显示,12 月 30 日 14:00 美东(北京 12 月 31 日 3 点)公布 12 月 9–10 日会议纪要

12月:特朗普可能提名下一任美联储主席

  • 财长 Scott Bessent 多次暗示,圣诞节前大概率公布新任主席提名
  • 市场普遍认为白宫经济委员会主任 Kevin Hassett 是当前的头号热门人选

由于 10–11 月美国政府关门,部分经济数据曾被迫暂停,现在的每一份数据,都带着「补作业」的意味。

12月16日 21:30:美国 11 月非农就业报告

  • BLS 官方日程:11 月就业报告在 12 月 16 日 8:30 美东发布(21:30 北京时间)

12月18日 21:30:美国 11 月 CPI

  • 因关门导致 10 月 CPI 延迟,11 月 CPI 的发布时间也被调整到 12 月 18 日

明年1月9日 21:30:12 月非农

  • BLS 计划在 2026 年 1 月 9 日发布 12 月就业数据

明年1月13日 21:30:12 月 CPI

  • 12 月 CPI 定于 2026 年 1 月 13 日发布,是 2026 年通胀路径的首次「定调」

12月12日 凌晨:博通 AVGO Q4 财报

  • AVGO 将在 12 月 11 日美股盘后(北京时间 12 日清晨)公布 2025 财年 Q4 及全年业绩,并召开电话会

12月18日 凌晨:美光 MU Q1 财报

  • MU 将在 12 月 17 日美股盘后(北京时间 18 日清晨)公布 2026 财年 Q1 业绩

这两家公司,一个在 AI 服务器/加速卡生态里的「总成+网络+ASIC 大厂」,一个是存储/HBM 的关键供给方,基本是验证「AI 基建是真需求还是泡沫」的前线哨兵。

4. 财政与政治:政府关门后续 & 美联储人事

Section titled “4. 财政与政治:政府关门后续 & 美联储人事”

政府关门刚结束:临时拨款到 2026 年 1 月 30 日

  • 2025 年 10 月 1 日起,美国联邦政府关门 40+ 天
  • 11 月中旬,国会通过临时拨款法案,给政府「续命」到 2026 年 1 月 30 日
  • 与此同时,奥巴马时代《平价医疗法案》的补贴延长问题,被推迟到 12 月中旬再表决

这些财政拉扯,一方面直接影响 2026 财年赤字和国债发行节奏,另一方面也增加了美联储的政治压力。

二、货币政策篇:美联储 + 日本央行

Section titled “二、货币政策篇:美联储 + 日本央行”

1. 美联储:从「加息+缩表」切到「降息+结束缩表」

Section titled “1. 美联储:从「加息+缩表」切到「降息+结束缩表」”

10 月会议,美联储已经:

  • 把联邦基金利率下调 25bp 到 3.75%–4.00% 区间
  • 同时宣布 12 月 1 日起停止缩表(QT2 结束),停止继续让国债自然到期缩减资产负债表

简单说:「利率向下、表规模不再往下」——货币环境从强收紧,变成了「温和偏松」。

但内部并不铁板一块,10 月纪要显示,委员会对后续是否继续降息存在明显分歧;鲍威尔自己也强调「12 月是否再降息,并不是板上钉钉」。

12 月 9–10 日的会议要看什么?

  • 点阵图和前瞻指引会不会明确 2026 年再降几次
  • 表述是「先降一步,然后观察」,还是暗示进入持续降息通道
  • 如何评价政府关门对数据空窗期的影响(10 月很多官方数据缺失)

市场现在已经提前把预期往「12 月再降一次」上定价,从 JP Morgan 到 BofA 都在押注 12 月 Cut。

如果结果只是「按兵不动」甚至释放更鹰的信号,短期对高估值、尤其是 AI 高 β 板块,会是一次不小的打击。

2. 美联储人事:谁来接鲍威尔?

Section titled “2. 美联储人事:谁来接鲍威尔?”

鲍威尔任期 2026 年 5 月到期,特朗普已经多次公开表示「我知道要选谁了」,但暂不提前换人。

目前的剧情大致是:

  • 财长 Bessent 负责筛选,已经把候选压缩到 5 人
  • 白宫经济顾问 Kevin Hassett 在各路报道和押注市场中,都是明显的领跑者
  • Bessent 暗示,圣诞节前可能公布人选

对市场的含义很简单:

如果选出来的是一个更偏「政治化、明确支持快速降息」的人选,那么 2026 年之后的美联储,独立性会被市场打折扣,对美元和长期通胀预期,都是一个潜在风险溢价。

换句话说,这不是短期几天的行情,而是在定未来数年的游戏规则。

3. 日本央行:日元加息,对美股的「隐形杀伤力」

Section titled “3. 日本央行:日元加息,对美股的「隐形杀伤力」”

12 月 1 日,植田在名古屋释放了非常罕见的鹰派信号:

  • 明确表示将在 12 月会议上讨论加息
  • 强调在把利率提高到 0.75% 之后,再进一步阐释路径
  • 同时强调即便加息,日本整体金融环境仍是宽松

市场立刻给出反馈:

  • 日元对美元迅速走强
  • 日本短端国债收益率创多年新高
  • 全球债市收益率整体跟着抬头,美股当天也出现回调

为什么这件事对美股投资者很重要?

  • 过去几年,全球大量资金靠低息日元做套息:借日元→买美债、买美股、尤其是高估值科技股
  • 一旦日元利率持续上升、汇率企稳甚至反弹,这条「便宜钱」管道就要慢慢收紧
  • 对那些依赖估值扩张、对利率极度敏感的成长股(AI 概念尤甚),长期是一个不利变化

三、数据篇:就业降温 + 通胀回落

Section titled “三、数据篇:就业降温 + 通胀回落”

当前市场的主线叙事,是:「经济放缓 + 就业走弱 + 通胀回落 → 美联储可以放心多降几次」

但我们得冷静看一下数据本身。

1. 就业:官方数据开始追上现实

Section titled “1. 就业:官方数据开始追上现实”
  • 私营机构数据已经连续几个月提示:裁员、WARN 通知、找工作难度,都在明显上升
  • 消费者信心在 11 月明显大幅走弱,政府关门被视为重要打击之一
  • 但由于 10 月政府关门,官方的劳工部/统计局数据一度停更,现在才刚刚恢复节奏

12 月 16 日(11 月非农)和 1 月 9 日(12 月非农)这两次发布:

如果非农新增和工资增速明显走弱:

  • 市场会更坚定「2026 年还要有 2~3 次降息」的路径
  • 对长端美债利率是利好,对成长股/科技股是短期利多

如果数据仍然偏强:

  • 则会加剧 FOMC 内部「要不要再降」的分歧
  • 对已经提前押注降息路径的资产(比如高杠杆 REITs、高估值科技股)是利空

2. 通胀:11 月 CPI 是「关门之后的第一张真卷」

Section titled “2. 通胀:11 月 CPI 是「关门之后的第一张真卷」”

因为政府关门,10 月 CPI 延迟发布,11 月 CPI 的发布时间也被推迟到 12 月 18 日。

这一期 CPI 的重要性有两点:

  • 这是政府重新开门后,第一份完整的通胀读数
  • 时间点非常尴尬——在 12 月 10 日 FOMC 之后才公布,也就是说,美联储在开会时拿到的,仍是「不完全」的数据集

市场预期 11 月 CPI 同比大致在 2.9% 左右,核心指标略高一点,但总体仍维持在「接近目标」的区间内。

如果 11 月、12 月 CPI 接连给出 2%~3% 的读数,美联储在 2026 年继续缓慢降息,就有了更充足的「政治与数据双重理由」。

四、AI 赛道篇:博通 & 美光两份答卷

Section titled “四、AI 赛道篇:博通 & 美光两份答卷”

过去一年,美股的大部分涨幅,几乎被少数几只 AI 龙头包圆:2025 年截至目前,Alphabet 和英伟达这两家公司,就贡献了 S&P 500 涨幅的大约三分之一。

11 月的那一轮剧烈波动,很大程度上就是在问一个问题:「AI 投资的回报,能不能支撑现在的股价?」

在这个背景下,12 月的两份财报,特别关键:

重点看三块:

AI 收入占比与增速

  • 高盛和其他投行预期:博通会再次上调 2026 财年 AI 收入指引
  • 有机构甚至预期同比增速可能超过 100%

主要客户(大模型/云厂商)的资本开支节奏

  • Alphabet 自研 TPU 深度绑定博通的代工与生态
  • 如果客户的 AI Capex 开始放缓,博通也难独善其身

传统业务(手机、宽带、企业网络)是否被 AI「挤占」资源

  • 如果传统业务承压、AI 业务高速增长,市场可能把博通视为「纯粹的 AI Beta」
  • 反之则更像「防守型 AI 受益股」

美光是存储+HBM 供给端的温度计:

  • HBM 和高端 DRAM 的涨价、排产情况,直接映射到 AI 服务器的真实需求
  • 如果指引显示数据中心需求依然强劲,同时 PC/手机库存出清,那么「AI 拉动整个半导体周期」的故事会更站得住脚
  • 反之,如果管理层开始强调客户调节库存、拉货不及预期,市场会对 2026 年 AI Capex 做第二次大幅下修

五、财政与政治篇:政府关门只是预告片

Section titled “五、财政与政治篇:政府关门只是预告片”

2025 年 10 月 1 日到 11 月 12 日,美国经历了一次 40+ 天的史上最长政府关门之一:

  • 统计局和劳工部暂停了大量经济数据发布
  • 消费者信心大幅下挫,零售销售数据也明显走弱
  • 白宫经济顾问估计,关门对经济的直接损失,每周约 150 亿美元

11 月中旬通过的临时拨款法案,只是把问题踢到 2026 年 1 月 30 日:

  • 在那之前,国会必须就 2026 财年的正式预算、以及医保补贴问题达成一致
  • 否则,要么再次关门,要么继续靠短期 CR 一路拖

对市场而言,这有几个含义:

国债供给不确定 + 赤字高企

  • 会持续给长端美债收益率施加上行压力

政治风险溢价抬升

  • 尤其是如果美联储主席人选明显「从属于白宫意志」
  • 再叠加大规模减税或新支出计划,市场会重新定价格局

六、「圣诞行情」:今年还管用吗?

Section titled “六、「圣诞行情」:今年还管用吗?”

华尔街把「每年最后 5 个交易日 + 新年首 2 个交易日」这 7 天里,美股的普遍上涨,称为**「圣诞行情」(Santa Claus Rally)**。

历史数据大概是:

  • 自 1950 年以来,S&P 500 在这 7 天里平均涨约 1.3%
  • 上涨概率接近 80%

但需要注意两点:

这只是统计现象,不是铁律,2024–2025 年就曾出现「反向圣诞行情」。

今年的背景特殊:

  • AI 泡沫争论正激烈
  • 美联储刚刚结束 QT
  • 日本可能加息、美国还在讨论再降几次息

所以更现实的看法是:

如果今年仍然出现一波圣诞+跨年小反弹,可以视作「在降息预期与流动性缓和下的一次情绪修复」。

但它并不能掩盖:

  • AI 估值是否合理
  • 就业是否明显走弱
  • 财政是否可持续 这些更长期的问题。

七、普通投资者怎么用这份「事件日历」?

Section titled “七、普通投资者怎么用这份「事件日历」?”

给一个实用版的操作思路:

1. 把时间写进自己的仓位管理规则里

Section titled “1. 把时间写进自己的仓位管理规则里”

12月9–10 日 FOMC 前后

  • 减少短期高杠杆、期权 All-in 式押注
  • 尽量让组合在会议当晚处于「可承受两边波动」的状态

12月11~18 日(AVGO / MU 财报 + 非农 + CPI)

  • 把 AI 纯 β(只涨故事不涨现金流)和有扎实盈利支撑的公司区分开来
  • 可以考虑用指数/ETF 对冲部分个股风险

12 月底~1 月中(圣诞行情 + 新一轮非农/CPI)

  • 如果市场在圣诞期间大涨,可以适当逢高降低组合整体估值水平(比如从 100% 科技股降到 60% 科技 + 40% 防御/价值)
  • 如果圣诞行情缺席甚至大跌,则要认真对待这可能是对 2026 年风险资产表现的一个提前预告

在这个时间段,美债收益率曲线的变化,比指数点位更重要:

  • 短端利率(2 年)→反映对未来 1–2 年降息路径的预期
  • 长端利率(10 年)→反映对长期通胀 + 财政可持续性的担忧

如果 12 月之后是「短端大幅下行、长端反而抬头」,那更像是「衰退担忧 + 财政风险」组合,而不是一个纯粹的利好股市的降息周期。

3. 把「故事」拆成「现金流 + 折现率」

Section titled “3. 把「故事」拆成「现金流 + 折现率」”

接下来一个多月,我们其实是在同时见证三场大戏:

  • 美联储:折现率的剧本
  • AI 龙头财报:现金流的剧本
  • 财政与政治:风险溢价的剧本

只有当这三者大致对齐的时候,「圣诞行情」才有可能演变成「真正可持续的牛市起点」。

乔哈里视窗模型与人类–AI对话的四象限分析

乔哈里视窗模型简介及四个象限

Section titled “乔哈里视窗模型简介及四个象限”

乔哈里视窗(Johari Window)是心理学中用于提升自我认知和改善人际沟通的模型,由心理学家约瑟夫·卢夫特(Joseph Luft)和哈里·英格哈姆(Harrington Ingham)于1955年提出。该模型将一个人的认知分为四个象限(又称四个”窗口”):

  • 开放区(Open Area): 自己和他人都清楚了解的信息。例如公开的行为、态度和特征。这是**“你知、我知”**的领域。

  • 盲区(Blind Area): 他人看得见但自己未察觉的信息,如他人眼中你的行为特征而你本人不知道。对应**“你知、我不知”**,即自己的认知盲点。

  • 隐藏区(Hidden Area): 自己知道但他人不知道的私密信息,例如个人隐私、内心想法等。这是**“你不知、我知”**的领域,又称”隐私区”。

  • 未知区(Unknown Area): 自己和他人都不知道的潜在信息或特质,包括尚未发掘的潜能等。对应**“你不知、我不知”**的完全未知领域。

乔哈里视窗的核心思想是通过扩大开放区、减少盲区和隐藏区、探索未知区,来增进自我认知和促进沟通。

在将乔哈里视窗类比到人类与AI的对话中,我们可以将**“自己”对应为人类用户,将”他人”对应为AI系统。这样,“知道/不知道”这两个维度就变成了”人类是否知道”和”AI是否知道”**。约翰逊窗模型的四象限在这一语境下重新定义,为分析人机对话提供框架。下面的示意图展示了这一对应关系:

乔哈里视窗模型在人类与AI对话中的象限示意图。横轴表示AI是否掌握相关信息(右侧为AI知道),纵轴表示人类是否掌握相关信息(上方为人不知道)。每个象限对应不同的人机认知配置: 双方都知道(开放区)、AI知道但人类不知道(盲区)、人类知道但AI不知道(隐藏区)、双方都不知道(未知区)。

具体来说,人类与AI对话的四个象限含义如下:

  • 开放区(人类知道 + AI知道): 对话涉及的信息或背景对双方都是透明的。这类问题在人机双方都有共同认知基础,任务或问题的前提清晰明确,相当于公共知识领域。

  • 盲区(人类不知道 + AI知道): AI拥有而用户缺乏的信息领域。用户的问题属于自己的认知盲点,但AI可能具备相关知识或技能,可以提供用户不知道的答案。

  • 隐藏区(人类知道 + AI不知道): 用户掌握着AI所不了解的信息,比如个人背景、私有数据或专业知识等。在对话中,这部分信息如果用户不提供,AI就处于信息缺失状态。

  • 未知区(人类不知道 + AI不知道): 人机双方都没有现成答案的新问题领域。可能是创新性的开放探索,或无人掌握的全新难题,双方都需要共同探索。

上述象限重新刻画了人类与AI在知识/信息方面的关系。基于这样的划分,我们可以更有针对性地设计提问方式和互动策略,使人机对话更高效、智能。

针对以上四个象限,我们分别探讨适合的问题类型、提问和应答策略以及AI在该象限下的局限性。不同象限对应不同的人机认知关系,需要调整对话策略来获得最佳效果。

开放区是**“人类知晓,AI也知晓”的领域,双方对问题背景都有共同认知。例如让AI润色一段用户自己写的文章、翻译一句话,或询问已知范围内的数据。这类场景下AI可以充当”高效助手”**。

适用的问题类型: 有清晰上下文且人机共享背景的信息处理任务。例如文本润色、翻译、格式转换、简单问答等常规任务。在这些任务中,人类和AI对要求理解一致,沟通成本最低。

人类提问方式: 直接明确地提出任务和要求即可。用户应提供清晰具体的指示,包括要完成的任务、期望格式或其他约束。例如: “请用简洁语言总结下面这段文字的要点。” 提问时不必赘述过多背景,因为AI已经”知道”相关知识,过多解释反而可能画蛇添足。

AI应答策略: AI在开放区主要扮演执行者的角色,即按指令高效率完成任务。由于上下文明确,AI可以直接利用训练中掌握的知识或技能给出回答,通常准确性高、效率高。

AI局限性: 在开放区AI的表现往往很好,局限性较小。但需要注意,如果用户过度描述已知信息,可能使AI困惑或输出冗长(因为AI试图处理用户的冗余指令)。相反,如果用户指令不清,即使双方知识重合,AI也可能难以把握意图。因此开放区的主要挑战在于清晰沟通需求,而非知识本身的欠缺。

盲区对应**“人类不懂,AI懂”的情况。在这种对话中,用户在向AI寻求自己欠缺的知识或答案。例如向AI请教专业领域的概念、让AI提供某方面的数据或见解等。这时AI相当于”加速学习者”**或者说知识提供者。

推荐的问题类型: 知识性问答和解释性问题。比如询问专业术语的含义、让AI科普某个概念、分析一个领域的现状等。这类问题针对的是用户的认知盲点,AI往往在训练数据中涵盖了相关信息,可以弥补用户知识不足。

人类提问技巧: 关键是善于提问、循序渐进。由于用户对该领域不熟悉,可能一次提问无法涵盖全部信息。最佳做法是将大问题拆解成一系列子问题,层层深入。先从基础定义问起,再逐步追问细节、例子和应用场景,让AI逐步展开知识。例如用户可以分层提问: “首先,这个概念是什么?解决了什么问题?有何核心原理?能否举例说明?” 这样的迭代对话有助于全面挖掘AI掌握的信息。

AI应答策略: 面对盲区提问,AI应尽量详细且循序地回答,帮助用户理解未知内容。这包括提供定义、原理解释、举例和进一步的拓展。理想情况下,AI会根据用户的每步提问进行教学式回答,就像导师引导学生逐步深入知识领域。但AI也需要避免一次性给出过量信息,应适应用户逐步深化的问题节奏。

AI局限性: 在盲区对话中,主要挑战在于用户不知道自己不知道什么。用户可能提问不明确或遗漏关键点,导致AI回答不具针对性或过于泛泛。研究指出,当用户仅用非常简单的查询时,AI可能难以判断具体需求,从而给出笼统回答,甚至不如传统搜索引擎。此外,如果AI的知识训练数据有限或有偏差,也可能提供不准确甚至错误的信息,而用户由于不懂该领域,难以及时识别错误。因此,在盲区象限下,人类应注意多角度提问和交叉验证信息来源,而AI应该在不确定时坦诚其局限,或提供信息出处以增强可信度。

隐藏区对应**“人类掌握,AI未掌握”的信息,例如用户的个人经验、私有数据或上下文背景。这里AI相当于在相关知识上一片空白**,需要由用户补充喂给必要的信息后才能完成任务。这种场景下AI的角色类似**“新手”或”被指导者”,人类则是向AI提供知识的专家**。

典型对话场景: 定制化、个性化的任务。例如让AI分析公司内部报告并给出摘要,或者根据用户提供的特定数据进行推理。在这些情形中,任务所需的信息不在AI的训练集中(因为是用户独有的),必须由用户提供给AI。例如: “这是我们公司的销售数据,请根据这些数据做业绩分析。”

人类提问方式: 在隐藏区,人类需要先提供充分的背景知识给AI,然后再提出问题。也就是说,“先喂料,后提问”。提供信息时要结构化、清晰: 可以包括背景说明、关键数据、术语解释以及期望AI完成的任务说明。例如,用户可以先输入一段自己的专属资料(如产品文档或会议记录),接着提问: “请根据以上资料总结主要结论并给出建议。” 如果用户只笼统地提一句”我们公司有个新项目X,你帮忙分析一下”,但不提供详细信息,AI由于缺乏必要背景将无法有效回答。因此提问时应毫不吝啬地把AI未知的部分讲清楚。

AI应答策略: 在获取用户提供的信息后,AI应充分利用这些新知识来完成任务。它可以运用自身的语言能力,将用户输入的专有内容与已有常识结合,进行总结、分析或创作。例如,AI拿到一份用户提供的内部报告后,可以提取关键信息并给出总结,或者根据用户给的事实回答问题。AI在这一象限主要扮演**“知识整合器”和”学习者”的角色。必要时,AI也可以通过澄清问题**向用户提问,以确保对用户提供资料的正确理解。

AI局限性: 隐藏区中AI最大的局限在于**“巧妇难为无米之炊”——没有用户输入的专有信息,AI就无法凭空解决定制化问题。另外,即使提供了信息,AI可能无法完全理解复杂专业数据的细微含义**,或者受模型自身知识局限,对新信息的整合能力有限。例如,AI可能误解用户提供的数据含义,或者遗漏重要背景细节。因此,用户在这一象限下需要对AI的回答保持监督,验证AI是否正确利用了提供的信息。为缩小隐藏区带来的劣势,一些先进的方法如**检索增强生成(RAG)**允许将外部知识库接入AI,使模型在对话中可以查询相关资料。通过引入这些技术,未来AI可以在隐藏区更好地获取用户领域知识,从而提升回应质量。

未知区是**“人类不知道,AI也不知道”的象限。这通常对应开放式的创造性对话或前沿探索性问题——没有现成标准答案,需要人机共同脑暴。在这里,AI和人类处于同一起跑线**,可以把AI看作**“共创伙伴”**。双方可以各自贡献思路,碰撞出新的想法。

适合的问题类型: 开放性创意、战略规划、前沿研究猜想等。例如,头脑风暴新的商业模式,提出科幻创意点子,或讨论尚无定论的科学问题。此类话题没有对错之分,重在广泛探索和创新。

人类提问方式: 鼓励采取开放式提问,给AI一定的创作自由,同时设置适当的约束来保证输出方向有意义。例如,可以提出假设性的问题: “如果要在火星上建立城市,我们需要哪些创新技术?” 并要求AI给出多角度的思考方案。也可以要求AI发散思维,如”请提出10种可能的解决思路”,然后人类再根据可行性筛选。总之,人类在未知区应扮演引导者和评估者的角色: 引导AI朝某个方向尝试,并不断根据AI的回答进行追问或调整。

AI应答策略: 在未知区,由于没有固定答案,AI应发挥创造力,提供多样化的观点或设想。同时,AI也要接受人类的反馈,共同收敛出更合理的方案。例如AI可能先天马行空地给出一些想法,人类据此指出哪些有价值、哪些不现实,然后AI再基于人类的判断继续深化或改变方向。人机在此象限下是一种**“协作探索”关系: AI提供原始创意,人类进行评估和综合**,两者反复互动以逼近问题的解决方案。

AI局限性: AI在未知区最大的局限在于缺乏真实世界验证能力。它提出的点子只是基于训练语料的类比和组合,可能新颖有趣,但也可能不切实际甚至荒诞。由于AI并不真正理解物理世界的因果关系或商业可行性,其创意需要人类来把关评估。另外,在无人知晓答案的问题上,AI可能倾向于编造看似合理的解释(即”幻觉”),给出毫无根据的结论。因此,人类应意识到AI输出的不确定性,善于识别和质疑其中的不可靠部分。总的来说,在未知区,人类主要依靠AI激发灵感,但最终的判断和决策仍需由人来做。正如有研究指出的,人类独有的直觉、情感和价值判断是AI无法取代的优势——这在面对未知问题时尤为重要。

人类视角: 设计高效提问以获取高质量回应

Section titled “人类视角: 设计高效提问以获取高质量回应”

从提问者(人类)的角度看,充分利用乔哈里视窗模型可以极大提升与AI对话的有效性和质量。核心在于: 了解自己与AI分别知道什么,并针对不同象限调整提问策略。以下是人类设计更有效问题的一些建议:

明确识别问题所属象限: 在发问前,先判断这个问题对于你和AI来说属于哪个象限。如果是你俩都熟悉的(开放区),就直接下达清晰指令;如果是你不了解但AI可能知道的(盲区),就准备分步提问、循序渐进挖掘知识;如果需要AI处理你提供的专有信息(隐藏区),就先提供背景再提问;如果是开放式探索(未知区),就提开放性问题并鼓励多角度回答。这种有意识的象限识别能帮助选择合适的提问方式,避免”一刀切”式发问导致的效果不佳。

提供充分且必要的上下文: 信息是高质量回答的燃料。根据象限不同,提供上下文的策略也不同: 在开放区,只需简明提供任务要求,不要堆砌多余信息干扰AI;在隐藏区,则应尽可能提供AI所缺少的背景,使AI有料可用。总之,提问时站在AI视角想一想: “它需要哪些信息才能准确回答?” 然后主动提供这些信息而非让AI猜测。

善用迭代对话: 不一定指望一次性提出”大而全”的问题。相反,逐步深入往往更有效。在盲区象限,将复杂问题拆解是常用策略;在未知区,与其一次要AI给出终极答案,不如让AI先生成思路,再根据回答继续提问或要求elaboration。这种持续对话可以引导AI不断朝着人类需求的方向优化输出,也让人类有机会随时校正AI的理解偏差。

强调具体期望和输出格式: 对于很多任务,明确你希望AI如何作答,包括回答的长度、格式、风格等,可以显著提高回答质量。例如,注明”请用100字以内回答”或者”列出要点”。在开放区这类提示尤为重要,让AI输出恰到好处的信息量;在盲区也有用,防止AI给出过于庞杂的解释。

保持反馈与引导: 人机对话不是单向的,提问者可以根据AI的初步回答做出反馈,决定下一步问什么。这在未知区和盲区尤其关键。如果AI回答不符合预期,不妨指出问题并要求修正,例如: “你刚才的回答遗漏了X方面,请详细补充”。通过反馈引导,用户可以逐步将AI的输出逼近自己想要的结果。

总之,人类提问者要有主动设计对话的意识,而不仅是随意发问。正如爱因斯坦所言: “问题比答案更重要”。在AI时代,设计高质量问题的能力已成为人机协作的核心竞争力。掌握了提问的艺术,即使面对日益智能的AI,我们仍能主导对话节奏,获得更理想的回答——会提问的人将不会被AI所取代。

AI系统视角: 理解人类需求与盲区的改进方向

Section titled “AI系统视角: 理解人类需求与盲区的改进方向”

从AI系统的角度,为了更好地服务于人类,它需要不断提升对人类需求、意图以及自身认知盲区的理解。结合乔哈里视窗的框架,我们可以提出以下改进思路:

增强对用户背景的获取和理解: 当前的大模型对用户的隐藏信息无法直接获知,但可以通过技术改进来缩小”隐藏区”。例如,引入检索增强生成(RAG)等机制,允许AI在对话时检索用户的专属知识库或实时信息。这样,当用户提问涉及私有领域时,AI能及时获取相关资料,从而理解人类提供的背景。在实际应用中,这意味着AI系统应当支持让用户上传文档、数据等,并记忆对话上下文,逐步构建对特定用户的知识图景。在保护隐私的前提下,AI对用户背景掌握越充分,越能缩小因信息不对称带来的误解。

学会提出澄清性问题: 人类有时提问不清或藏有隐含前提,这是AI的”人类盲区”。理想的AI应能够检测出用户提问中的歧义或不完整之处,并主动询问澄清,而不是贸然给出可能偏离需求的回答。例如,如果用户问”请总结一下报告”,AI可以回应: “请问是哪份报告?您希望我关注哪些方面?” 通过模拟人类对话中的澄清行为,AI能更准确抓住人类真正的意图。这种改进可减少由于误解问题而产生的无效回答,使对话更加高效。

识别并提示自身知识局限: 在盲区和未知区,当AI识别出用户的问题超出了自己的知识范围,或回答中存在高度不确定性时,应该坦诚地向用户提示。例如,AI可以直言”关于这个最新研究,我没有足够信息,是否需要我搜索最新资料?” 甚至在接口上提供搜索引擎模式供用户选择。通过这种方式,AI不至于自信地输出错误信息,让人类误以为AI已经”全知全能”。相反,承认局限并寻求合作(如请求额外信息或网络查询)反而会提升对话质量和用户信任。

持续学习用户反馈以缩小盲区: 每次人机对话都是AI了解人类需求和盲区的机会。AI系统应能从用户的反馈、纠正中学习: 当用户多次修改提问或对AI回答表示不满时,AI可以尝试分析原因,例如是没有理解某个词的真实含义,还是忽略了用户真正关心的点。未来的AI或许可以在对话过程中动态调整推理策略,例如切换不同知识模块,来更贴近用户期望。这种交互式学习能让AI逐步适应个人化的提问风格,弥补模型通用性与个性化需求之间的差距。

拓展知识边界并更新模型: AI的”已知”在不断变化。随着时间推移,新知识不断产生,今天的未知区明天可能变成盲区甚至开放区。当下的大模型通过插件、联网检索等方式已经在尝试扩充知识库。未来,开发者应定期更新AI模型的训练,使其掌握最新的公共知识,推动横轴(AI知识)不断右移。同时,通过强化学习等手段,让模型更好地保留高质量的用户交互经验。这将逐渐缩小AI的知识盲区,使其在更多领域达到专业水准。不过,无论AI多么进步,人类的直觉、情感和价值判断仍是AI难以替代的。因此AI也应被设计得能够理解和尊重这些人类特有需求,例如在回答涉及伦理、情感的问题时表现出适当的同理心和谨慎。

综上,从AI系统一侧看,优化的方向在于更充分地获取并利用人类提供的信息,更智能地处理人类的模糊提问,以及更谦逊地面对自身知识盲点。通过这些改进,人机对话将更趋向真实伙伴式的沟通: AI更深刻地理解人类意图和背景,人类也能更信任AI的回应质量。这正是人机共生的目标——双方在沟通中不断缩小误解的窗格,拓展知识与创意的共享窗口,最终实现协作共创而非简单的工具问答。当我们充分运用乔哈里视窗思维去审视人机交流,每一次对话都将不仅是获取答案,而是一次认知互相启发的旅程。

无需PS!教你用 Gemini 3 一键生成专业级美股财经日历(附实战教程)

对于关注美股的朋友来说,每个月都有大量的宏观数据、财报日历和重要事件。通常我们需要在各个网站收集信息,然后费时费力地排版成一张「一图看懂」。

以前做这种图,你可能需要熟练掌握 Photoshop 或者 Canva。但现在,有了 Gemini 3,你只需要一张参考图一堆杂乱的文字,就能在几分钟内生成一张专业级的财经日历。

今天就带大家复盘一下,我是如何用 Gemini 3 制作「12月美股财经大事件日历」的。过程非常丝滑,尤其最后一步的局部修改能力,真的惊艳到我了!👇


第一步:准备“喂”给 AI 的素材

Section titled “第一步:准备“喂”给 AI 的素材”

巧妇难为无米之炊。我们需要准备两样东西:

  1. 参考风格图:找一张你觉得排版好看的旧日历图片。(我找了一张的财经日历,喜欢它的配色和时间轴布局)。

  1. 文字信息:把 12 月和 1 月重要的美股事件(如非农数据、鲍威尔讲话、博通财报、圣诞行情等)整理成文字发给 AI。

💡 这里的重点是: 你不需要把文字排版好,甚至可以是杂乱的新闻摘录,AI 会自己提取重点。


打开 Gemini 3,上传刚才的参考图片,并输入提示词(Prompt):

Prompt: “参考截图的日历风格,根据以下内容,生成一张美股12月和1月份重要时间点时间的日历。” (附上整理好的文字内容…)

Gemini 的反应非常快,它迅速识别了参考图的视觉结构(Layout)——左侧日期、中间图标、右侧文字,以及底部的配色风格。

生成结果(第一版): AI 完美复刻了时间轴风格,图标配得也很精准(比如芯片财报用了芯片图标,圣诞节用了圣诞树)。

⚠️ 但是,出现了一个小瑕疵: AI 过于“忠实”地参考了原图,竟然把原图左上角的 Logo ID(参考图里的水印)也给画上去了。这显然不是我们想要的。


第三步:神级操作——自然语言“修图”

Section titled “第三步:神级操作——自然语言“修图””

在以前,遇到这种情况,我们只能把图下载下来,打开 PS 用污点修复画笔涂掉,再打上自己的 Logo。

但现在,你只需要跟 Gemini 说一句话。

我希望把左上角的 Logo 换成我自己的品牌 “Vibe Sparking”

我的修改指令: “左上角 一图看懂 下面,降息预期升温 左边,方框内容,请修改为 Vibe Sparking。其它地方保持不变。”

这里考验的是 AI 的两个能力:

  1. 空间定位能力:听得懂“左上角下面、左边”这种方位词。
  2. 局部重绘能力:只改动指定区域,不破坏画面其他部分的像素。

Gemini 3 迅速给出了第二版反馈。

✨ 最终效果: 大家看下图,原本照搬的 Logo 区域,已经完美替换成了 “Vibe Sparking”,字体风格、背景色块都与整体画面完美融合,毫无违和感。而日历的其他部分(日期、图标、文字)保持了 100% 的一致,没有发生任何变形。


通过这次实测,Gemini 3 展现了三个强大的核心能力:

  1. 风格迁移 (Style Transfer):能精准理解参考图的配色、布局和设计逻辑。
  2. 信息可视化 (Info Viz):能将非结构化的长文本,转化为结构清晰的图表。
  3. 多模态编辑 (Multimodal Editing):这也是最让我惊喜的,它不仅仅是“生成”,更是“编辑”。指哪改哪,大大降低了普通人制作专业图表的门槛。

以后做活动海报、日程安排、甚至是会议纪要长图,只要你手里有一张好看的“样图”,你就是专业设计师!

AI美股11月关键事件投资研究报告

2025年11月美股市场面临五大类关键事件交织的复杂局面,这些事件将对市场走向产生深远影响。基于当前数据分析,市场正处于高估值、低波动性与高度不确定性并存的微妙平衡状态。

  • 最高法院关税裁决(11月5日)是本月最大的不确定性因素。联邦上诉法院已判定特朗普基于《国际紧急经济权力法》(IEEPA)实施的“对等关税”和“芬太尼关税”违法。最高法院将在11月5日进行口头辩论,最终裁决预计在2025年底或2026年初公布。这一裁决涉及近2000亿美元的关税退款风险。如果最高法院推翻关税,市场可能迎来显著利好;若支持政府,则意味着贸易不确定性持续。
  • 中美贸易关系在10月底出现短暂缓和。与中国在韩国会晤后达成一年期休战协议:美国将对中国商品的关税从57%降至47%(芬太尼相关关税从20%降至10%),中国暂停稀土出口限制一年。然而,这只是战术性休战而非结构性解决方案。双方均保留重启贸易战的选项,需警惕11月再度升级的风险。
  • 政府关门已持续29天(截至10月31日),成为美国历史上最长的关门之一。预算办公室估算关门将导致70-140亿美元的永久性GDP损失。关键经济数据发布暂停造成“数据黑洞”,美联储在缺乏就业、通胀等核心数据情况下被迫制定政策。约75万联邦雇员被强制休假,11月1日起食品券(SNAP)福利停发,将进一步冲击消费需求。
  • 财报时间:11月3日发布Q3。股价年内+170%至194.55美元,市值4425亿美元,P/E 648.5。预期Q3营收11亿美元(+50%),EPS 0.17美元。
  • 风险评估:
    • 极端估值:P/E位居标普第一。Q2首次破10亿美元营收,但市值合理性需多年高增长兑现。
    • 政府合同依赖:虽有美国陆军百亿美元长期合同,但政策调整可能压缩订单。
    • 竞争加剧:Salesforce推出国家安全业务直面竞争。
    • 分析师谨慎:存在分歧与估值焦虑。
  • 机会:
    • 商业部门强劲(+93% YoY),AIP需求旺盛;与Oracle、Snowflake合作深化;英国武装部队十亿美元级合同标志国际扩张。
  • 财报时间:11月4日发布Q3。股价年内+115%至254.84美元,P/E 152.6。公司指引Q3营收87亿美元(±3亿,+28%)。
  • 增长驱动:
    • AI芯片:Instinct MI400与Helios系统性价比优势,数据中心定位清晰。
    • 服务器升级周期与AI投资驱动需求。
    • 管理层对持续增长具信心。
  • 风险因素:
    • 业绩高基数,“达标即回调”风险;技术面超买。
    • 出口限制影响。
    • 估值与一致预期微降带来压缩风险。
  • 财报时间:11月19日发布Q3(FY26)。股价年内+134%至202.89美元,P/E 57.64,市值近5万亿美元。
  • 关键看点:
    • Blackwell需求强劲,GB200/GB300面向LLM、推理与机器人,代表代际飞跃。
    • “长期推理AI”叙事强化算力需求逻辑。
    • FY25营收1305亿美元(+114%),Non-GAAP EPS 2.99(+130%)。
  • 风险:
    • 贸易与出口限制不确定。
    • 竞争加剧与国产替代。
    • AI估值泡沫担忧。
  • 财报时间:11月10日发布Q3。2025年3月上市,Q2营收12.13亿美元;预期Q3营收12.8亿美元。
  • 增长故事:
    • “AI的必备云”定位,客户质量高。
    • 收入同比激增,反映算力需求爆发。
  • 风险:
    • 盈利性不足:Q2 EPS -0.6,Q3预期-0.512。
    • 资本密集,现金流压力大;与云巨头竞争激烈。

5. Tesla 股东投票 — 治理不确定性

Section titled “5. Tesla 股东投票 — 治理不确定性”
  • 时间:11月6日。投票决定是否批准马斯克价值1万亿美元薪酬方案(投票权集中度27%)。
  • 核心议题:
    • 薪酬基于严苛业绩里程碑。
    • 马斯克暗示若影响力不足或将离开,公司需有应对预案。
    • 机构意见分化,结果或接近。
  • 市场影响:
    • 股价年内+105%至440.10美元,P/E 231.63。若被否,或引发治理动荡与股价压力。

1. 10月降息已完成,12月路径存变数

Section titled “1. 10月降息已完成,12月路径存变数”
  • 10月29日降息25bp至3.75%-4.00%,内部意见分歧。
  • 12月降息概率由90%+降至约68%-75%区间。
  • 鲍威尔强调12月非既定结论;通胀仍上方,就业承压且数据缺失加剧不确定。
  • 12月1日起结束国债缩表,继续每月减持MBS 350亿美元。
  • 资金成本上升、回购工具使用上行;准备金占比接近“充足”水平。
  • 结束QT旨在避免流动性事件重演,但非宽松信号。
  • 关门导致就业、零售、CPI等关键数据停发。
  • 决策“盲飞”,12月或被迫暂停降息;企业与投资者更趋保守。
  • 多位金融领袖警示估值过高与突发回调风险。
  • 数据支撑担忧:
    • 巨额资本开支与商业回报错配。
    • 头部公司对指数收益与盈利贡献高度集中。
  • 反方观点:
    • 投资被视为维持领先的必要代价;
    • 整体估值仍与基本面匹配的观点存在;
    • 资金跑道充足,回报显性化或需更长时间。
  • 受影响行业与公司:
    • 服装零售:VF、Gap、Williams-Sonoma等回撤。
    • 半导体:Microchip、Western Digital等承压。
    • 医疗设备:GE Healthcare回落。
    • 汽车及零部件:Polaris受墨西哥工厂关税影响。
    • 消费电子:Best Buy因供应链暴露回撤。
  • 研究显示关税与不确定性可致标普长期回撤7%-10%,解释近一成波动。
  • 估值:标普前瞻P/E 22.7,高于5年与10年均值;追溯P/E 28.8偏高。
  • 波动:VIX 16.92低于均值,反映自满。
  • 盈利:Q3 2025标普+9.2%,科技+22.3%;2025/2026预期+11%/+13.9%。增长高度集中于头部科技,未来或趋于收敛。
  • 防御为主,降低高估值单一持仓至5%-8%以下。
  • 关注事件驱动:
    • 11/3 PLTR:若营收增速<50%或Q4指引保守,或回调15%-20%;若超预期且AIP新增客户亮眼,可持有。
    • 11/4 AMD:看数据中心收入与MI400订单;若未达87亿美元指引,或回调至约230美元技术位。
    • 11/5 最高法院辩论:不押注方向,关注对行政权力质疑度;关税敏感股或反弹。
    • 11/19 NVDA:若Blackwell订单与毛利超预期,或引领新一轮上涨;若下调2026指引,AI板块承压。
  • 对冲波动:
    • 考虑少量VIX看涨期权对冲尾部风险。
    • 配置10%-15%防御板块(公用事业、必需消费品),如Costco等抗周期标的。
  • 主题分散:
    • AI基础设施优先于纯应用:
      • 半导体设备:ASML、应用材料等。
      • 电力/能源:关注公用事业受益于数据中心用电暴增。
      • 数据中心REITs:Digital Realty、Equinix等。
    • 防务科技双轮:
      • Palantir:若增长可持续,可3%-5%长期核心仓位。
      • 传统防务:Lockheed Martin、Northrop Grumman、RTX等。
    • 中概反弹机会:
      • 台积电、网易等低估值高增长标的;仓位≤10%,设止损。
    • 降息受益:
      • 金融与REITs适度受益,关注估值与分红。
  • 质量与估值纪律:
    • 坚守核心:MSFT、Alphabet、AMZN、Meta等。
    • 避免估值陷阱:PLTR、TSLA需高增速才能匹配估值,警惕PEG>3情形。
  • 全球配置对冲地缘:
    • 欧洲防务、日本半导体、印度IT等分散风险。
  • 风险管理:
    • 止损:单股回撤>15%果断止损。
    • 仓位:科技总仓不超50%,单一板块不超25%。
    • 现金:保留15%-20%以待回撤机会。
    • 再平衡:季度检视,YTD涨幅>100%考虑部分止盈。
  • 11月是关键分水岭:关税裁决、AI龙头财报与美联储路径将塑造Q4与2026格局。
  • AI投资分化:具真实收入与客户的基础设施与平台更具确定性。
  • 政策不确定性成常态:需适应波动放大。
  • 估值偏高但非全面泡沫:风险集中于极端高估值个股与部分初创。
  • 建议“70%防御+30%进攻”:质量龙头与对冲工具打底,叠加事件驱动机会。
  • 11/3(周一):Palantir财报 → 政府合同与商业增长验证
  • 11/4(周二):AMD财报 → AI芯片竞争格局
  • 11/5(周三):最高法院关税辩论 → 贸易方向信号
  • 11/6(周四):Tesla股东投票 → 公司治理与人事稳定
  • 11/10(周一):CoreWeave财报 → AI云需求验证
  • 11/19(周三):NVIDIA财报 + 美联储会议纪要 → AI与货币政策双考
  • 12/9-10:FOMC会议 → 降息路径明朗化

当前市场机遇与风险并存。用数据与逻辑保持纪律,在“低波动+高估值”环境下适度克制。巴菲特名言可资借鉴:“在别人贪婪时恐惧,在别人恐惧时贪婪。”

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

科技巨头Q3财报现状与投资建议:AI驱动下的机遇与风险

2025年第三季度,美国科技巨头交出了喜忧参半的成绩单。尽管整个行业受益于AI热潮,各公司的表现分化明显。Google创造历史性突破,首次超过1000亿美元季度营收;Microsoft继续稳健增长,云和AI业务势头强劲;而Meta则因新税法一次性计提160亿美元递延税项,导致股价暴跌9%。在这样的市场格局下,投资者需要精准把握机遇,平衡风险。

第三季度财报现状:AI时代下的分化

Section titled “第三季度财报现状:AI时代下的分化”

Google:历史性突破,全面超预期

Section titled “Google:历史性突破,全面超预期”

Alphabet第三季度创造历史新高,首次突破1000亿美元大关,达到1023亿美元,同比增长16%,远超分析师预期的998.5亿美元。每股收益达2.87美元,同比增长35%。

最亮眼的是Google Cloud业务,收入达151.6亿美元,同比增长34%,超过分析师预期147.2亿美元。Cloud部门的订单积压飙升至1550亿美元,表明企业对其AI基础设施的强劲需求。搜索和其他业务收入也达到565.7亿美元,同比增长14.5%,证明即使在ChatGPT等AI助手的冲击下,Google的搜索主业仍保持健康成长。

股价在盘后交易中上涨超过6%,市场对其AI转型和云业务爆发的预期非常乐观。公司将全年资本支出指引上调至910-930亿美元,反映对AI基础设施的持续加码。

Meta报告第三季度营收515.24亿美元,同比增长26%,超出市场预期。但一场”税务风暴”彻底改变了市场情绪。

新颁布的美国税法”One Big Beautiful Bill”对累积递延税资产进行一次性认定。Meta因拥有大量递延税资产且美国本土权益集中,被一次性计提约160亿美元的递延税项费用,导致净利润同比暴跌83%,每股收益仅1.05美元,远低于预期。

剔除税费影响,Meta的广告业务和Reels视频业务表现强劲。公司AI驱动的广告投放和定位能力持续改善,销售增速达到23%,远超Google的13%,体现了其在AI广告技术上的领先地位。

管理层宣布2025年全年资本支出预算为700-720亿美元,2026年还将继续大幅增加。这一激进的投资计划表明Meta正在为”通向AGI”的竞赛投入重金,但也引发了对短期利润率和现金流的担忧。

股价大跌9%,跌幅反映了市场对一次性税费和未来高支出的悲观情绪。

Microsoft第三季度营收776.7亿美元,同比增长18.4%,超过分析师预期的754.9亿美元。每股收益3.72美元,超过预期3.66美元。

Intelligent Cloud收入达303.1亿美元,同比增长18%以上,Azure云服务在AI工作负载上的强劲需求继续驱动增长。Business Software收入330.2亿美元,同比增长超过15%,其中Microsoft 365商业云订阅的持续增长彰显了公司对生成式AI的成功集成。

自由现金流率达33%,比上年同期的29.4%显著提升,说明公司在扩大规模的同时,控制了成本并保持了现金创造能力。

从数据看,各公司的估值分化极大。Google的PEG为1.88,P/S为8.95,在保持中等增速(未来5年EPS增速15.61%)的前提下,估值最具吸引力。Meta的PEG为2.17,虽然略高于Google,但其23%的销售增速和12.54%的未来5年增速预期,提供了更好的成长潜力。

Microsoft的估值相对稳健(P/E 39.70,PEG 2.35),虽然不如Google便宜,但其16.86%的未来增速预期和33%的自由现金流率,反映了其商业模式的优越性。

风险警示来自NVDA和TSLA。NVDA的P/E达58.93,P/S达88.59,虽然过去5年增速达91.83%,但当前估值已将高增长完全消化,甚至透支。TSLA的P/E达308倍,更加荒谬,公司本季利润大幅下滑,当前估值下根本无法支撑。

深层分析:为何Meta遭受估值杀伤,而Google独领风骚

Section titled “深层分析:为何Meta遭受估值杀伤,而Google独领风骚”

Meta的160亿美元税费并非基本面恶化的信号,而是会计政策的一次性调整。新美国税法要求企业对累积的递延税资产进行全面估值认定。Meta因为资产结构集中在美国本土权益、政策变化突然实施、以及历年税收策略在新法下被重新评估,遭到一次性冲击。

相比之下,Google、Microsoft等公司的递延税资产结构更加分散,海外权益占比更高,受新法冲击相对较小。

方案一:稳健增长+安全边际(推荐指数:★★★★★)

Section titled “方案一:稳健增长+安全边际(推荐指数:★★★★★)”

配置Google 60% + Microsoft 40%。Google的PEG最低(1.88),Cloud业务增长最快(34%),市场预期最保守。Microsoft的稳健性和现金流能力无可挑剔。这一配置兼具成长性和安全边际,适合中长期持有、追求稳定回报的保守型投资者。

方案二:成长性追求+适度风险承受(推荐指数:★★★★)

Section titled “方案二:成长性追求+适度风险承受(推荐指数:★★★★)”

配置Meta 50% + Google 50%。Meta当前股价大跌恰好是建仓的机会,剔除一次性税费影响,其核心业务依然强劲。Meta的AI广告驱动能力和销售增速(23%)超过Google(13%),提供更高的成长潜力。若Meta 2026年的AI投入开始产生回报,股价有望实现15-25%的反弹。

方案三:激进成长+高风险承受(推荐指数:★★)

Section titled “方案三:激进成长+高风险承受(推荐指数:★★)”

配置Meta 40% + Amazon 40% + Google 20%。等待Amazon的Q3财报发布,若超预期则重新调整权重。Amazon的AWS和广告业务都处于加速阶段,未来5年EPS增速预期19.22%。这一配置依赖Amazon财报超预期,若表现疲弱则需快速调整。

避开NVDA、TSLA、AAPL。NVDA的P/E 58.93和P/S 88.59处于历史高位,任何增速下滑都将触发估值杀伤。TSLA的P/E达308倍且利润大幅下滑,估值与基本面严重脱节。AAPL的P/E 41、PEG高达4.27,估值-增长匹配度最差。

Google凭借Cloud业务的爆发和相对克制的估值,成为最安全的选择。Meta通过激进的AI投入和广告技术创新,正在构筑长期护城河,当前的股价大跌反而制造了机会。Microsoft作为云和AI双料赢家,继续保持稳健增长。

建议最终投资组合权重(适用于大多数投资者):

  • Google:45%
  • Meta:30%
  • Microsoft:25%

这一配置能够在未来12个月内提供8-15%的年化回报率,同时将波动风险控制在15-20%。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

从探索到修复:Claude Code 如何思考与推理,排查 SQLAlchemy 事务回滚问题

这是一篇基于一次真实的生产问题排查记录而整理的技术博客,焦于 Claude Code 如何“探索 → 思考 → 推理”,快速定位根因并实施最小可行修复,同时给出进一步的结构性优化建议。

问题发生在 mailflow 服务的生产环境,核心报错如下:

This Session's transaction has been rolled back due to a previous exception during flush.
To begin a new transaction with this Session, first issue Session.rollback().
Original exception was: (sqlalchemy.exc.InvalidRequestError) Can't reconnect until invalid transaction is rolled back

对应日志上下文显示,错误发生在向 emails 表执行 INSERT 时,随后一系列数据库操作进入“级联失败”状态。

  • 场景:mailflow 在处理入站邮件(解析、生成记录、转发、移动 IMAP 文件夹)时,偶发整条处理链条失败。
  • 目标:
    • 明确事务失败的首要触发点;
    • 解释为何后续所有 DB 操作都报相同错误;
    • 以最小风险改动尽快恢复处理能力;
    • 提供结构性改进建议,提升系统鲁棒性。

基于 Claude Code 的代码搜索与上下文关联能力,我们按“从症状到根因”的顺序展开:

  • 锁定日志与触发点

    • 从日志可见异常由 SQLAlchemy 会话(Session)状态所致:之前事务失败时未进行 rollback(),当前 Session 进入 invalid 状态。
  • 关键代码路径定位

    • mailflow/app/db.py:连接与会话工厂定义。
    • mailflow/app/mail.py:实际的业务主流程、创建记录、提交事务的位置。
    • mailflow/app/utils.py:日志与告警(微信)入口 notify_and_log
  • 证据一:全局(模块级)会话

    • mail.py 顶部存在:
      session = session_factory() # 模块级全局 Session
    • 一旦某处 flush/commit 失败,该全局 Session 便进入 invalid 状态,后续所有依赖它的 DB 操作都会失败,直至显式 session.rollback()
  • 证据二:缺少异常处理与回滚

    • 多处 session.commit() 调用无 try/except/rollback 保护:
      • 创建邮件记录(create_mail
      • 建立邮件与附件关联(_relation_attachment_and_mail
      • 处理请求结果并更新状态(deal_requests_result
      • 主流程 process_mail 的大段逻辑

结论:首个失败的 DB 操作将全局 Session 置为 invalid,因缺少 rollback(),其后路径上的所有提交与查询都会以相同错误失败,形成“级联故障”。

  1. 假设:出现一次 INSERT/UPDATE 异常(可能由数据约束、网络抖动、连接池等引发),全局 Session 进入 invalid;由于没有 rollback(),后续流程(更新状态、关联附件、移动邮件)全部失败。

  2. 代码验证:

    • 搜索到全局 session = session_factory()
    • 搜索 session.commit() 的使用点,基本均无 except: session.rollback()
    • 与报错语义完全吻合。
  3. 策略:小步快跑,先以最小改动恢复稳定性,再评估结构性重构。

本次修复分三层优先级(P0 → P2):

  • P0(立即生效,最小改动):在异常捕获处补齐 session.rollback(),让 Session 状态可自愈。
  • P1(全面防护):所有 commit() 外围增加 try/except/rollback,避免任何单点失败拖垮后续流程。
  • P2(结构优化):用 scoped_session 替换模块级全局会话,隔离不同处理流的会话状态(建议,非本次强制上线)。
  • 主流程增加回滚(mailflow/app/mail.py
try:
# 解析、判定 mail_type、构建附件解析器等
...
except Exception as err:
session.rollback() # 关键:恢复会话状态
notify_and_log(...)
process_status = False
  • 处理请求结果时的状态更新,增加防护(成功与失败分支都包裹)
try:
mail.move_to = 'Done'
mail.status = '20000'
session.commit()
except Exception as err:
session.rollback()
notify_and_log(...)
raise
  • 建立邮件与附件关联时增加防护
try:
for item in a_list:
attach = Attachment(...)
session.add(attach)
session.commit()
except Exception as err:
session.rollback()
notify_and_log(...)
raise
  • 创建邮件记录 create_mail 的提交保护
try:
mail = Email(...)
session.add(mail)
session.commit()
return mail
except Exception as err:
session.rollback()
notify_and_log(...)
raise

从根上避免“全局会话拖累所有流程”的风险,推荐使用 scoped_session

from sqlalchemy.orm import sessionmaker, scoped_session
session_factory = sessionmaker(bind=engine)
Session = scoped_session(session_factory) # 每个线程/协程隔离
# 在业务入口获取/释放:
session = Session()
try:
...
finally:
Session.remove() # 回收本地会话

说明:scoped_session 能在并发/多线程环境中提供更好的隔离性,减少“跨请求污染”。本次线上紧急修复优先保证回滚语义正确与完整性,再评估迁移成本与收益。

建议的验证思路:

  • 单条可复现邮件回放:重放出现过错误的邮件,观察处理链是否恢复;
  • 观察日志:不再出现 “Can’t reconnect until invalid transaction is rolled back”;
  • 人工 spot-check:核对 IMAP 文件夹移动、转发邮件、数据库状态;
  • 受控压力:增加一定数量的邮件样本,确保多处提交点都能正确回滚与继续。
  • 反模式:模块级全局 Session 一旦进入 invalid,会引发全链条“级联失败”。
  • 原则:任何 commit() 都应具备 try/except + rollback;在主流程捕获顶层异常时也要 rollback()
  • 设计:面向故障恢复的会话模型(scoped_session 或每次处理获取/释放会话)。
  • 运维:第一时间记录和告警(本项目已通过企业微信 notify_and_log 实现),并在消息里携带关键信息(uid、subject、时间、to_list)。

这次排查中,Claude Code 的“探索—推理—修复”路径可以复用到多数代码级问题:

  1. 快速建立问题边界:从错误语义入手,匹配最可能的层(事务/会话管理)。
  2. 证据驱动的搜索:定位涉及的文件、变量、函数(session_factorycommit() 使用点)。
  3. 假设 → 证伪/证成:提出“全局 Session + 无 rollback 导致级联失败”的假设,并在代码中找到直接证据。
  4. 最小改动优先:先补齐 rollback() 使 Session 可恢复,快速止血。
  5. 结构改进建议:给出 scoped_session 的后续优化路径,平衡收益与改造成本。

英特尔(INTC):拐点级投资机会的深度分析

英特尔当前状况的评估触及了这次转型的核心要素。基于最新Q3 2025财报和市场动态,对观点进行全面验证和补充分析。

CEO表现:情商、智商、财商的三重验证

Section titled “CEO表现:情商、智商、财商的三重验证”

Lip-Bu Tan的卓越履历确实支持”顶级CEO”判断:

  • 拥有新加坡南洋大学物理学学士、MIT核工程硕士和旧金山大学MBA学位,技术功底深厚
  • 在Cadence Design Systems担任CEO期间(2009-2021),他将公司收入翻倍,股价上涨超过3200%
  • 他对半导体行业的深刻理解来自40年的运营和投资经验,特别是作为Walden International创始人,管理着50亿美元资本,投资了600家公司
  • 业界公认的客户导向型领导者。上任后立即走访了22个潜在客户和合作伙伴,展现出极强的关系构建能力
  • 他在半导体生态系统中的人脉网络”无人能及”,这使得他能够在短时间内促成英伟达、软银等战略投资
  • McKinsey将其领导风格描述为”激进透明”(radical transparency),这在建立董事会和管理层信任方面至关重要

“让竞争对手英伟达和软银投资背书”确实是财商的最佳体现。2025年8月,他成功引入:

  • 美国政府:89亿美元投资(约10%股权,价格$20.47/股)
  • 软银:20亿美元投资(价格$23/股)
  • 英伟达:50亿美元投资(价格$23.28/股,约4%股权)

这些交易不仅缓解了英特尔的资金压力,更重要的是为公司赢得了战略背书。截至10月24日盘后,美国政府持仓已获得102.1%回报(从$20.47涨至$41.37),这个”2个月2倍”的表现完全符合观察。

战略方向:AI算力本土化的核心逻辑

Section titled “战略方向:AI算力本土化的核心逻辑”

“AI PC + 服务器 + 18A制程”战略三角确实精准。最新进展验证了这一逻辑的可行性:

英特尔18A已于2025年下半年开始量产,比台积电的N2节点提前数周至数月。该制程采用RibbonFET(GAA晶体管)和PowerVia(背面供电)两大突破性技术,相比Intel 3节点:

  • 密度提升超30%
  • 性能提升25%
  • 功耗降低36%

据报道,英特尔已获得微软下一代Maia 2 AI处理器的代工合同,将使用18A或18A-P节点。这是一个重大突破,因为Maia是一个820平方毫米的巨型芯片,对良率要求极高。

英特尔正与AMD进行早期谈判,将AMD部分产能转移至英特尔晶圆厂,这将是另一个重要的信任背书。

Nvidia、Broadcom已被确认为RAMP-C计划的合作伙伴,虽然初期可能是测试芯片,但展示了生态系统的兴趣。

Q3财报显示客户计算集团(CCG)收入达50亿美元,同比增长7%。英特尔预计2025年PC市场总量(TAM)为2.9亿台,AI驱动的需求强劲。

估值分析:价格目标合理性验证

Section titled “估值分析:价格目标合理性验证”

基于最新数据,对估值框架进行了量化验证:

  • 股价:$38.16(盘后$41.37)
  • 市值:$181.5B
  • 企业价值(EV):$197.2B
  • Q3收入:$13.7B(同比+3%)
  • 毛利率:40%(non-GAAP)
  • EV/Sales:约3.7x(基于TTM收入$53B)

“40的股价已经隐含未来两年收入增长20%;毛利稳定40%;AI PC和18A制程落地”。计算显示:

  • 在$40股价下,EV/Sales约3.8x
  • 如果2025年收入$54B,未来两年CAGR 20%,2027年将达到$78B
  • 这一估值水平合理反映了基本情景的预期,但上涨空间有限(仅4.8%)

$50价格目标(进一步拔高估值)

Section titled “$50价格目标(进一步拔高估值)”

“需要Intel的晶圆代工厂业务能拿下大单外部客户”。验证:

  • 在$50股价下,EV/Sales约4.8x
  • 上涨空间:+31.0%
  • 催化剂条件:微软Maia 2量产成功、AMD代工合作落地、18A良率达到商业化标准、获得更多外部大客户订单

这个估值需要英特尔证明其代工业务能够与台积电竞争,并确保18A技术的商业成功。

尽管转机明显,但仍需警惕几个关键风险:

8月份有报道称英特尔在18A关键制造工艺上遇到良率问题,虽然后续财报显示进展顺利,但大规模量产的稳定性仍待验证。

英特尔在Q2 2025财报中警告,如果无法获得外部大客户,可能会取消或推迟14A及后续节点的开发。CEO Lip-Bu Tan坦言”我们在半导体公司中已不在前10名”,显示竞争压力巨大。

重建制造能力需要持续巨额投资。Q3自由现金流仅$896M,虽然比去年同期-$27B大幅改善,但距离自我造血仍有距离。

Lip-Bu Tan因其在中国半导体领域的大量投资(600家公司,其中25笔投资在2017-2020年间流向中国芯片公司)曾引发争议,甚至一度被特朗普要求辞职(后和解)。

投资结论:拐点确认,但路径仍需验证

Section titled “投资结论:拐点确认,但路径仍需验证”

核心判断——这是拐点级别的投资机会——有充分的数据支持:

  1. CEO质量:Lip-Bu Tan确实展现了情商、智商、财商的全方位能力,他的履历和前3个月的表现支持”顶级CEO能够改变企业命运”的论断
  2. 战略清晰:AI算力本土化这条主线逻辑通顺,美国政府、英伟达、软银的投资背书证明了战略价值
  3. 财务改善:Q3业绩超预期(收入$13.7B,毛利率40%,non-GAAP EPS $0.23 vs预期$0.01),连续4个季度执行改善
  • **当前价格($38)**已充分反映基本情景
  • $40目标需要AI PC和18A如期落地(概率较高)
  • $50目标需要代工业务获得外部大客户验证(仍有不确定性)

“路还要走”的判断准确。18A大规模量产在2025年下半年至2026年,代工客户订单转化需要6-12个月验证期。

这是一个风险回报比有吸引力的转型期投资,但需要分阶段验证:

  • AI PC复苏
  • 18A技术验证
  • 成本控制见效
  • 代工大客户订单落地
  • 18A良率达标
  • 外部收入占比提升

风险提示: 本文仅为信息分析,不构成投资建议。股票投资具有风险,投资者应根据自身情况谨慎决策。文中涉及的股价数据和公司信息以实际公告为准。

用了 Kimi CLI,我把它当“会写代码的 Shell”

Kimi CLI 把“终端 + 代码助理 + 工具链”合到一个窗口里,用起来像 Shell,但随时能切到智能体;能直接跑命令、接入 Zsh、接上 Zed/VS Code(ACP 协议),还支持 MCP 工具。项目正在技术预览,但已经能上手干活了。来源见官方仓库与文档。


  • 不是聊天窗,是能“落地”的 CLI:一键切换成 Shell 模式,直接执行原生命令;再按一次返回智能体,让它解释日志、生成脚本、补全参数。
  • 和 Zsh 打通:装上 zsh 插件,按 Ctrl-K 就能在终端里切智能体模式,来回切换很顺。
  • 走 ACP(Agent Client Protocol):这意味着它能作为“外部智能体”接到 Zed 等编辑器里用,一个协议连任何编辑器与任何 Agent,这是趋势。
  • 支持 MCP 工具:按 MCP 约定加载第三方工具,像拼乐高一样把浏览器调试、上下文搜索接进来。

顺带一提,Moonshot 今年把 Kimi K2 / Kimi-Dev 这套更偏工程与 Agent 能力的模型系也拉了出来,强调长上下文与编码能力,给 CLI 这条线提供了“芯”。


环境推荐用 uv 安装(干净、省事)

  • 安装命令:uv tool install --python 3.13 kimi-cli
  • 升级命令:uv tool upgrade kimi-cli --no-cache
  • 首次在 macOS 运行可能会慢 10 秒左右,系安全检查。
  • 安装完执行 kimi --help 检查。

**初始化:**在你要工作的目录里跑 kimi输入 /setup 完成绑定;输入 /help 查看命令菜单。

**Shell/Agent 模式切换:**按 Ctrl-K。Shell 模式能直接跑命令;当前内置 cd 这类 shell 内建命令还不支持。


装插件(Oh My Zsh 举例):

Terminal window
git clone https://github.com/MoonshotAI/zsh-kimi-cli.git \
${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/kimi-cli
# ~/.zshrc 里启用
plugins=(... kimi-cli)

重启 Zsh 后,Ctrl-K 进入 Agent 模式,再按退出。


Kimi CLI 原生支持 ACP(Agent Client Protocol),可以被 Zed 这类支持 ACP 的编辑器当作外部 Agent 调用。例如 Zed 的 settings.json 里加:

{
"agent_servers": {
"Kimi CLI": {
"command": "kimi",
"args": ["--acp"],
"env": {}
}
}
}

然后在 Zed 的 Agent 面板里新建线程就能用了。

如果你第一次听 ACP,可以把它理解成“面向智能体的 LSP”:统一“编辑器 ↔ 智能体”的通信方式,生态正加速补齐。


  1. 项目冷启动
  • 命令:/setup 建立上下文 → 让它读仓库结构、生成 Makefile、脚手架脚本。
  • 价值:比纯聊天靠谱,因为它就在你的目录里;脚本生成完当场可跑。
  1. 日志救火
  • 在 Shell 模式跑集成测试,把失败堆栈丢给 Agent,总结根因、给 patch。
  • 一键切回 Shell 验证修复。
  1. 命令行“自动补全++”
  • 让它基于你的项目环境写 grep/awk/jq 组合命令,并解释每个参数。
  • 适合处理大日志、CSV、JSON 批处理。
  1. 编辑器内的“会写代码的终端”
  • 用 ACP 接到 Zed:在代码旁边开 Agent 线程,既能读文件又能跑命令,连贯修改-验证闭环。
  1. 接第三方工具(MCP)
  • 例如接入 chrome-devtools-mcp 做页面性能分析,或接 Context 服务拉知识库。
  • 启动时带上:kimi --mcp-config-file /path/to/mcp.json
  1. 团队新人成长
  • 给新人一键“问命令、看解释、立刻执行”的环境,减少“问 ChatGPT → 复制 → 贴到终端”的来回。

  • 就地行动:生成命令后直接跑,而不是复制来复制去。
  • 编辑器原生协同:ACP 让 IDE/编辑器能把“运行上下文、文件变更、任务面板”和 Agent 串起来。
  • 可插拔:MCP 把外部工具拉进来,比一堆私有插件容易复用。

  • 内建 Shell 命令暂不支持:比如 cd,遇到需要切目录的命令,用 pushd/popd 或分步执行。
  • macOS 首次启动慢:安全检查正常现象,耐心等几秒即可。
  • 选对安装器uv tool install 会创建独立环境,升级与卸载都干净,这是本文推荐原因。

  • 想把“写脚本 + 执行 + 复盘”合并到一个窗口的人。
  • 用 Zsh/Oh My Zsh 的效率党。
  • 用 Zed 或对 ACP 感兴趣的工程师 / 团队。

如果说 GUI Copilot 适合“写写看看”,那 Kimi CLI 是“边写边跑”。它把 Agent 从网页里“请”到你的终端和编辑器里,让每一次点子都能快速变成一次执行。现在是技术预览期,刚好适合早鸟用户抢跑试错。


Terminal window
# 1) 安装
uv tool install --python 3.13 kimi-cli
# 2) 初始化
kimi # 窗口里输入 /setup
# 3) 接 Zsh(Oh My Zsh)
git clone https://github.com/MoonshotAI/zsh-kimi-cli.git \
${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/kimi-cli
# ~/.zshrc
plugins=(... kimi-cli)
# 4) 接 Zed(可选)
# settings.json 里添加 Kimi CLI 的 ACP server(见上文)

AI 时代的文档屎山?BMAD、Spec-Kit、OpenSpec 等面向文档AI编程的利弊

大家还记得曾经让人头大的”屎山代码💩“吗?如今在 AI Claude Code, Codex, Gemini 等加持下,我们又多了一个新坑——“文档屎山💩“。面向文档AI编程最近很火,说白了就是先写好文档(规范说明),再让 AI 根据文档写代码。听起来很美好:不用再瞎猜 AI 想要什么,写个清晰说明就能自动出代码。然而,真相是如果方法不对,文档反而更容易堆成一座新的屎山,让人啼笑皆非😅。

引言:BMAD、Spec-Kit、OpenSpec 是什么鬼?

Section titled “引言:BMAD、Spec-Kit、OpenSpec 是什么鬼?”

先说说这几个时下流行的面向文档AI编程工具吧,它们各有千秋:

BMAD 方法 – 一个”大而全”的框架,全名 Breakthrough Method for Agile AI-Driven Development。它野心很大,想 AI 模拟完整敏捷团队。里面有分析员AI、架构师AI、开发AI、测试AI等等,各司其职,像搭戏台一样把规划、编码、测试都演一遍。BMAD 提供了 CLI 工具和网页界面,用特殊的”剧情文件”和上下文管理来让 AI 团队协作。它通常分两阶段:先由”分析员/产品经理/架构师”代理规划设计,再由”Scrum Master/开发”代理具体写代码。优点是过程完备、有条不紊,适合大型复杂项目,强调清晰的文档和分工。但也相当繁琐,上手门槛高,对底层模型理解你写的文档要求也高。

Spec-Kit – GitHub 开源的小工具,帮你在现有 AI 编码助手上加一层”流程”。开发者通过命令行引导 AI 按顺序执行 “规范 -> 计划 -> 任务 -> 实现” 四步走。简单讲,Spec-Kit 先写清需求规范,然后让 AI 按规范一步步拆解任务、写代码。它用 /specify、/plan、/tasks 这些口令把我们的规范文档变成”可执行文档”。优点是轻量灵活,不用大改现有工作流,也不绑定特定模型。适合个人开发者或小团队给 AI 编码加点结构,提升代码质量。

OpenSpec – 一个极简风格的新秀。它追求”能简单就不复杂”,让你用纯 Markdown 写规范文件,配合少量指令完成开发。流程只有三步:提出修改提案、AI 生成任务列表、AI 应用规范改代码。OpenSpec 的亮点是效率高,耗费 token 少,因为它的规范很精简,甚至没什么额外元数据。它适合个人开发者或小团队追求极致速度,小改动几分钟搞定。缺点是目前支持的 AI 模型有限,但胜在上手容易,基本没什么额外负担。

看出来了吗?这些工具理念都差不多:让开发先写好”文档规范”,再驱动 AI 写代码。初衷是减少 AI 瞎发挥(所谓 vibe coding)带来的不确定性,代码质量更可控。然而,理想很丰满,现实有点骨感。一不小心,我们写的文档反而可能变成另一坨屎山。为什么这么说?往下看。

文档更容易变成屎山的四大原因

Section titled “文档更容易变成屎山的四大原因”

写代码有语法约束,错一个逗号程序都跑不通;可写文档就自由得多了。AI 又不是人,面对随意发挥的长篇文档,理解起来经常跑偏。毕竟代码是确定的,规范文档却往往很模糊,不同的人和AI会有不同解读。你写的文档如果结构松散,AI 看了就像雾里看花,最后生成的代码南辕北辙也不稀奇。

就算文档写得还行,也难保 AI 每次都理解成同一种意思。有经验的开发者都知道,“一千个读者就有一千个哈姆雷特”——更何况 AI 模型和人脑思维差异巨大。今天 ChatGPT 也许按规范实现了功能,明天换个模型可能曲解你的意图。文档不像代码有编译器检查,AI 理解偏了你不一定立刻发现,这无形中埋下隐患。

大家知道大语言模型会”胡编乱造”——也就是幻觉,一本正经地瞎说。当 AI 用不完整或有歧义的文档去生成代码时,这种问题被放大了。举个例子,你文档里漏了一点细节,AI可能自作聪明编造出一个看似合理但实际上错误的实现。更糟的是,AI 写出的文档或代码带着谬误,下次另一个 AI 还当真引用,错误滚雪球越滚越大。就像谣言一样,一旦进了正式文档,后来的人和AI都会被误导。

最后,不得不提这些新工具本身的复杂度。为了用 Spec-Kit、BMAD 之类,你可能要安装额外的软件、学习一堆新流程。折腾半天工具,反而忘了初心——花大量时间写规范、调框架,而真正写代码的时间变少了。更尴尬的是,如果不深入理解这些框架,你可能按模板生搬硬套,反而让文档和实际代码脱节。就像拿着手术刀不会用的人,伤害可能更大。

如何避免屎山:文档工具分级使用指南

Section titled “如何避免屎山:文档工具分级使用指南”

听起来问题不少,不过别灰心,我们可以制定分级使用策略,把面向文档编程的坑变成更加平坦的路:

当你只是代码里改个小逻辑、调个样式,不需要大费周章写什么规范。这种情况下,直接用 Claude Code, Codex, Gemini, GitHub Copilot, Cursor 等这类助手提问最快。一两句话说明需求,让 AI 给出改动建议或代码片段就行。搞不好,还省下写文档的时间。正如有经验的人所说,小需求不用上纲上线搞全过程文档,能用脑子和对话解决的,就别兴师动众。

如果是增加一个中等规模的新功能,涉及多个步骤但不算庞大,这时可以考虑用 Spec-Kit 或 OpenSpec 这类轻量工具。先花十几分钟写个MVP级别的规范说明,列出主要需求和边界条件,然后交给 AI 去细化计划和任务清单。Spec-Kit 会帮你把任务逐个拆开,让你可以逐步实现;OpenSpec 则省去上下文切换,几条命令完成修改。关键是保持规范简明扼要,只覆盖必要细节。事实证明,简洁的规范更容易让 AI 正确执行,速度也更快。一旦功能完成,记得及时更新文档或将临时规范清理掉,避免堆积过时信息。

遇到重构大型模块、开发全新复杂子系统这种”大手术”,就需要更严谨的方案。BMAD 这类多代理框架虽然重,但在这时候派上用场:它能帮你全面规划——从需求分析、架构设计到任务分配,都有条不紊。相当于请了一支 AI 虚拟团队给你出谋划策,确保大项目不失控。当然,人要在回路中把关,不要盲目相信 AI 的每一步输出,要及时 review 和修正。启动 BMAD 前也要评估成本:它用时较长、对模型理解力要求高,但对于复杂项目可能是值得的投入。大型项目往往生命周期长,文档也要实时演进,BMAD 生成的规范、用户故事等应该和代码一起维护更新,别一股脑用完就扔,否则下次还得推倒重来。

此外,无论大改小改,都请牢记**“文档 MVP”原则:文档只覆盖当前必要且真实的情况**,不追求面面俱到。很多高手分享经验说,功能做完后他们往往会删除临时规范文档,因为代码本身已经说明一切。与其把过期文档留在那儿坑人,不如保持一个精简而准确的说明,然后随着代码和业务演进不断更新。记住,文档的价值在于及时反映真实情况,脱节再多也只是废纸一张。

面向文档编程是 AI 时代的一把双刃剑。用得好,它确实能让开发更高效、有条理;用不好,就会出现新的屎山,让人抓狂。对于追求效率和品质的年轻 IT 从业者来说,新工具值得探索,但不能迷信。代码也好,文档也罢,核心还是对需求的理解和及时维护。当我们选择何时写规范、用哪种工具时,不妨多问问自己:“这么做是为了更清楚地解决问题,还是在制造额外的复杂度?”

最后,希望每位开发者都能驾驭这些 AI 工具,写出既清爽又实用的文档,让文档真正成为代码的助力,而不是新的负担。毕竟,我们要的是更高的生产力,可不想真的在办公室里堆出一座”屎山”来! 💩

Codex vs Claude Code 的iOS蓝牙连接竞态条件问题排查对比分析

用真实案例讲透 iOS BLE 的“坑”和Codex 和 Claude Code两类 AI 助手的推理路径。


跨平台做 BLE,iOS 永远更“挑”。 我们在对接一台 血糖泵 时,Android 一路绿灯,iOS 却怎么都不回。 更有意思的是,两位 AI 助手——CodexClaude Code——给出了完全不同的答案。 最终,Codex 中了;Claude Code 没中。 这篇文章把整个过程完整复盘给你,也顺带聊聊“AI 诊断 bug 的方式差异”。


下方为你提供的完整复盘原文,未做删改,便于对照阅读与复现👇


iOS蓝牙连接竞态条件问题:Codex vs Claude Code 的解决方案对比分析

Section titled “iOS蓝牙连接竞态条件问题:Codex vs Claude Code 的解决方案对比分析”

在开发跨平台蓝牙应用时,iOS平台的BLE(Bluetooth Low Energy)连接问题常常让开发者头疼。最近,我们团队遇到了一个棘手的iOS蓝牙连接问题,特别是在连接血糖泵设备时。有趣的是,两个不同的AI助手——Codex和Claude Code——给出了完全不同的解决方案,而只有Codex成功解决了问题。

本文将深入分析这个问题的本质,对比两种解决思路,并为遇到类似问题的开发者提供参考。

  • 平台: iOS (使用CoreBluetooth框架 + BabyBluetooth库)
  • 框架: Flutter跨平台应用,通过Platform Channel与原生iOS代码通信
  • 设备: 血糖泵(蓝牙医疗设备)
  • 表现: Android端正常连接和通信,iOS端连接后无法正常通信
1. Flutter调用connect()方法,设备连接成功
2. 立即调用setNotifyByUuid()设置特征值通知
3. 调用writeByUuid()发送数据
4. iOS端操作失败,无法收到设备响应

Claude Code将问题诊断为连接超时问题,主要关注点在于:

  1. 初步判断: 认为iOS连接速度慢于Android
  2. 解决尝试: 添加20秒超时定时器(匹配Android的超时时间)
  3. 代码修改:
// Claude Code的方案:添加超时定时器
dispatch_after(dispatch_time(DISPATCH_TIME_NOW, (int64_t)(20 * NSEC_PER_SEC)),
dispatch_get_main_queue(), ^{
if (/* 连接未完成 */) {
// 触发超时错误
}
});
  1. 第二次尝试: 发现连接成功回调有2秒延迟
// 原代码中的延迟
dispatch_after(dispatch_time(DISPATCH_TIME_NOW, 2 * NSEC_PER_SEC),
dispatch_get_main_queue(), ^{
[weakSelf notifyConnectSuccess:peripheral];
});
  1. 最终结果: 移除延迟后问题仍未解决

Codex正确识别了问题的本质——竞态条件(Race Condition)

  1. 根本原因分析:

    • iOS的服务发现是异步的
    • Flutter在连接成功后立即调用setNotifyByUuid和writeByUuid
    • 此时服务和特征值可能还未被发现
    • 导致操作失败
  2. 时序图分析:

Flutter端 iOS原生端
| |
|----connect()-------------->|
| |--开始连接
|<---连接成功回调-------------|
| |--开始服务发现(异步)
|----setNotifyByUuid()------>|
| |--❌ 特征值未就绪
|----writeByUuid()---------->|
| |--❌ 无法写入
| |
| |--服务发现完成
| |--特征值就绪(但为时已晚)
// 添加待处理通知的状态追踪
@interface Ble()
@property (nonatomic, copy) NSString *pendingNotifyBleAddress;
@property (nonatomic, copy) NSString *pendingNotifyServiceUUID;
@property (nonatomic, copy) NSString *pendingNotifyCharacteristicUUID;
@property (nonatomic, strong) NSMutableArray *pendingWriteOperations;
@end

2. 在setNotifyByUuid中缓存失败的请求

Section titled “2. 在setNotifyByUuid中缓存失败的请求”
- (void)setNotifyByUuid:(NSString *)bleAddress
serviceUuid:(NSString *)serviceUuid
characteristicUuid:(NSString *)characteristicUuid
result:(FlutterResult)result {
CBPeripheral *peripheral = [self findPeripheralByAddress:bleAddress];
if (!peripheral) {
result(@{@"success": @NO, @"error": @"Device not found"});
return;
}
// 尝试查找特征值
CBCharacteristic *characteristic = [self findCharacteristic:peripheral
serviceUUID:serviceUuid
characteristicUUID:characteristicUuid];
if (characteristic) {
// 特征值存在,直接设置通知
[peripheral setNotifyValue:YES forCharacteristic:characteristic];
result(@{@"success": @YES});
} else {
// 特征值尚未发现,缓存请求
self.pendingNotifyBleAddress = bleAddress;
self.pendingNotifyServiceUUID = serviceUuid;
self.pendingNotifyCharacteristicUUID = characteristicUuid;
// 触发服务发现(如果尚未进行)
[peripheral discoverServices:nil];
// 返回成功,但实际操作将延迟执行
result(@{@"success": @YES, @"deferred": @YES});
}
}
// 在BabyBluetooth的特征值发现回调中
[self.baby setBlockOnDiscoverCharacteristics:^(CBPeripheral *peripheral,
CBService *service,
NSError *error) {
// 检查是否有待处理的notify请求
if (weakSelf.pendingNotifyBleAddress &&
[[NSString stringWithFormat:@"%@", peripheral.identifier]
isEqualToString:weakSelf.pendingNotifyBleAddress] &&
weakSelf.pendingNotifyServiceUUID.length > 0 &&
weakSelf.pendingNotifyCharacteristicUUID.length > 0) {
// 重试设置notify
[weakSelf tryEnableNotifyForPeripheral:peripheral
serviceUUID:weakSelf.pendingNotifyServiceUUID
notifyUUID:weakSelf.pendingNotifyCharacteristicUUID];
// 清除待处理状态
weakSelf.pendingNotifyBleAddress = nil;
weakSelf.pendingNotifyServiceUUID = nil;
weakSelf.pendingNotifyCharacteristicUUID = nil;
// 处理队列中的写操作
[weakSelf processPendingWriteOperations];
}
}];
- (void)writeByUuid:(NSString *)bleAddress
serviceUuid:(NSString *)serviceUuid
msgData:(NSData *)msgData
result:(FlutterResult)result {
// 检查notify是否就绪
if {
// 将写操作加入队列
[self enqueueWriteOperationWithType:@"write"
bleAddress:bleAddress
serviceUUID:serviceUuid
characteristicUUID:nil
data:msgData
result:result];
return;
}
// 执行实际的写操作
[self performActualWrite:bleAddress
serviceUuid:serviceUuid
msgData:msgData
result:result];
}
- (void)processPendingWriteOperations {
for (NSDictionary *operation in self.pendingWriteOperations) {
[self performActualWrite:operation[@"bleAddress"]
serviceUuid:operation[@"serviceUuid"]
msgData:operation[@"data"]
result:operation[@"result"]];
}
[self.pendingWriteOperations removeAllObjects];
}
  • Codex: 识别为异步操作的竞态条件
  • Claude Code: 误判为连接超时问题

CoreBluetooth的操作流程:

连接 → 服务发现 → 特征值发现 → 设置通知 → 读写数据
↑ ↑ ↑
异步 异步 异步

Codex的方案通过维护待处理操作的状态,优雅地解决了异步时序问题。

Codex的解决方案不会破坏现有的Flutter端代码,通过在iOS原生层处理所有复杂性。

  • 不要被表面症状误导(如”连接慢”)
  • 深入分析完整的调用链路
  • 理解底层框架的工作原理
  • 跨平台开发中,不同平台的异步模型可能差异很大
  • Android的同步操作在iOS上可能是异步的
  • 需要为每个平台定制解决方案
  • 不同的AI可能有不同的问题解决思路
  • 重要的是理解AI的建议背后的逻辑
  • 验证和测试仍然是必不可少的
// ❌ 错误做法:立即操作
[peripheral connectWithTimeout:20];
[self setNotifyForCharacteristic:characteristic];
[self writeData:data];
// ✅ 正确做法:等待就绪状态
[peripheral connectWithTimeout:20];
// 等待连接成功回调
// → 等待服务发现完成
// → 等待特征值发现完成
// → 设置通知
// → 等待通知确认
// → 执行写操作
typedef NS_ENUM(NSInteger, BLEConnectionState) {
BLEStateDisconnected,
BLEStateConnecting,
BLEStateConnected,
BLEStateDiscoveringServices,
BLEStateDiscoveringCharacteristics,
BLEStateReady
};
- (void)retryOperation:(void(^)(void))operation
afterDelay:(NSTimeInterval)delay
maxRetry:(NSInteger)maxRetry {
static NSInteger retryCount = 0;
if (retryCount < maxRetry) {
dispatch_after(dispatch_time(DISPATCH_TIME_NOW,
(int64_t)(delay * NSEC_PER_SEC)),
dispatch_get_main_queue(), ^{
operation();
retryCount++;
});
}
}
// 缓存已发现的服务和特征值
@property (nonatomic, strong) NSMutableDictionary<NSString*, CBService*> *serviceCache;
@property (nonatomic, strong) NSMutableDictionary<NSString*, CBCharacteristic*> *characteristicCache;
// 合并多个写操作以提高效率
- (void)batchWriteOperations:(NSArray<NSData*> *)dataArray {
// 实现批量写入逻辑
}
// 维护活跃连接池,避免重复连接
@property (nonatomic, strong) NSMutableDictionary<NSString*, CBPeripheral*> *activeConnections;
#ifdef DEBUG
#define BLELog(fmt, ...) NSLog((@"[BLE] " fmt), ##__VA_ARGS__)
#else
#define BLELog(...)
#endif
BLELog(@"State transition: %@ -> %@", oldState, newState);
  • 使用Core Bluetooth模板追踪BLE操作
  • 分析时序问题
  • 检测内存泄漏
// 在开发环境中模拟网络延迟
#ifdef SIMULATE_DELAY
dispatch_after(dispatch_time(DISPATCH_TIME_NOW,
(int64_t)(arc4random_uniform(3) * NSEC_PER_SEC)),
dispatch_get_main_queue(), ^{
// 执行操作
});
#endif

这个案例充分展示了在跨平台蓝牙开发中正确理解底层框架的重要性。Codex成功的关键在于:

  1. 准确识别问题本质:竞态条件而非超时问题
  2. 深入理解iOS BLE的异步特性:服务发现的异步流程
  3. 实现优雅的解决方案:待处理操作队列 + 重试机制
  4. 保持向后兼容:不破坏Flutter端代码

相比之下,Claude Code的失败教训是:

  • 被表面症状误导
  • 没有深入分析异步调用链
  • 只解决了症状,没有解决根本原因

希望这篇分析能帮助遇到类似iOS BLE问题的开发者。记住,在处理异步操作时,时序问题往往比超时问题更值得关注

  1. Apple Core Bluetooth Programming Guide
  2. BabyBluetooth iOS蓝牙库
  3. Flutter Platform Channels
  4. iOS BLE Best Practices


不管是 Claude Code 还是 Codex,本质都是“猜测 + 验证”。 这次 Codex 赢,是一开始就猜对了竞态根因。 多给 Claude Code 几次机会,它也能靠迭代猜对,最后把方案跑通。 这就是“AI 调 bug”的现实:靠假设,靠试错,靠证据


关键知识点小抄(带权威引用)

Section titled “关键知识点小抄(带权威引用)”
  • CoreBluetooth 的发现与回调是异步的。操作必须在相关回调后进行,如 discoverServices:discoverCharacteristics:forService: 完成后再 setNotify / write。(苹果官方文档说明特征发现完成后再可用,并强调按 UUID 精确搜索更高效。)

  • “先发现、再操作”是 iOS BLE 的常识性顺序。教程与实践文章同样强调回调驱动、异步思维,避免在未完成发现前就写入。

  • 发现服务/特征可以整表或按 UUID。整表更慢,按需更稳。

  • BabyBluetooth 用 block/链式语法把委托集中,便于在“发现完成”时机统一处理,比如在 setBlockOnDiscoverCharacteristics刷写延迟队列

  • Flutter Platform Channels 是 Dart 与 iOS/Android 的桥,业务时序要在原生侧兜住,不要让 Dart 过早下发写操作。


做对这 6 件事,iOS BLE 不再折磨你:

  • 拉齐时序:把“连→服→特→notify→写”固化为状态机,未到 Ready 一律拒绝写。
  • 做队列:把写操作与 notify 请求都入队,在回调里统一 flush
  • 加幂等:重复的 setNotify/write 要可重入,避免“写爆”。
  • 加重试:指数退避 + 次数上限,配详细日志。
  • 做缓存:service/characteristic 缓存、连接池,降低开销。
  • 分层兜底:Flutter 侧“看起来成功”,iOS 侧真正负责正确性

AI 时代对 Boss、Leader 和工程师的影响

人工智能(AI)时代轰然来临,从老板到Leader再到一线工程师,每个人的职场角色都在悄然改变。有人担心AI抢饭碗,有人则兴奋于效率腾飞。事实是,AI正以惊人的速度重塑我们的工作方式。决策如何做?工具如何用?领导怎么当?尤其对于习惯埋头苦干的内向型工程师来说,是更容易发光,还是被社交高手反超?本文就来聊聊这些变化中的真实案例和数据,看Boss、Leader和工程师各自如何在AI洪流中寻找新优势。

决策与职责的重塑:哪些工作由AI接管?

Section titled “决策与职责的重塑:哪些工作由AI接管?”

AI正重新划分职场版图。一些过去由人拍板的决策,开始由算法提供建议,甚至直接自动化处理。例如,人力资源筛选简历、财务报表核对等流程都逐步交给AI处理,让管理者从繁琐事务中解脱。企业主(Boss)因此更专注于战略方向,把日常运营决策交给数据驱动。

IgniteTech公司的CEO Eric Vaughan 就曾做出激进举动:推动公司”All in AI”,不惜更换80%员工,只留用愿意拥抱AI的人。他坚信”不会使用AI的人将被会使用AI的人取代”。结果如何?在完成AI转型后的短短三个月内,他们各部门流程优化效果提升了300%,财务团队用AI将季度结算从5天缩短到48小时!这说明许多职责经AI加持后实现了质变。

Leader(团队管理者)发现自己审批、监控等职责减少了,但需要承担起AI策略落地的责任,比如培训团队使用新工具、重组流程。Andrew Ng指出,AI让小团队拥有与大企业抗衡的能力:一个工程师一天做完过去6个月的原型开发已非神话。这迫使传统科层架构松动,决策权开始下放给掌握一线技术的人才。

工程师这边,基础编码、测试等任务部分被自动生成,工程师开始参与更高层次的设计和优化。一些软件新人凭借AI辅助,不懂某编程语言也能在几天内交付产品。可以说,AI正在重构每个角色的工作边界:人们从重复劳动中解放,但也必须不断升级技能,承担起与AI协作的新职责。

工具赋能与效率跃迁:AI如何改变工作节奏?

Section titled “工具赋能与效率跃迁:AI如何改变工作节奏?”

在AI大潮中,各类新兴工具层出不穷,让职场节奏快进一档。以开发者为例,GitHub Copilot 等代码助手让写代码好比有人并肩”对码”,官方数据显示它已将开发速度提高55%!不仅程序员,几乎所有岗位都迎来了AI助手:市场文案用ChatGPT头脑风暴,设计师借助Midjourney生成灵感画稿,产品经理用智能分析工具解读用户数据……

据微软与领英的联合调研,75%的员工工作中已在用生成式AI,68%的人坦言工作节奏和工作量比以前更吃力,但AI正在帮他们应对这些挑战。许多人甚至自带AI工具上岗(中小企业尤其如此)。这种”AI搭档”模式让个人产能大幅提升——曾经需要团队协作完成的任务,现在一人加AI就能搞定。

Leader由此可以把人手从机械重复任务中解放出来,投入更有创造性的工作。比如微软推出的Copilot办公套件,可自动记录会议要点、生成待办事项,让团队协作更加高效顺畅。

企业主们也在积极武装团队:IgniteTech等公司为每位员工报销ChatGPT Plus订阅费,设立”AI日”集中练兵。有远见的Boss发现,拥抱AI工具的员工往往产出更高,他们愿意给予重奖和晋升机会。调查显示,超过三分之二的领导者表示不会聘用对AI一无所知的候选人,哪怕资历浅但精通AI的人更受青睐。

工程师群体也出现了”AI超速成长”:有人利用AI快速补齐短板,初级工程师借助Copilot写出中级水准代码,资深工程师更是如虎添翼成为传说中的”10x工程师”。当然,工具赋能的另一面是竞争加剧——不会用AI的人正在被远远甩在后面。但对于愿意学习的人来说,AI工具正成为实现生产力飞跃的神兵利器。

领导力风格转型:从控场者到赋能者

Section titled “领导力风格转型:从控场者到赋能者”

在AI加持、信息更透明的时代,领导者的角色定位也需要转变。以前典型的管理者像指挥官,掌控大局、拍板一切;而现在,AI使大量信息和分析唾手可得,一线员工也可以通过数据洞察提出决策建议。这种情况下,Leader若还固守”我说了算”的老路,反而可能拖累组织创新。

正如吴恩达所言,当团队中出现”10倍人才”时,“最适合做决策的人有时就是工程师而非经理”。传统金字塔结构要求信息层层上报,由领导拍板。但AI时代,专业个人借助智能工具掌握丰富信息和方案,理应获得更多决策自主权。

成功的领导开始扮演**“园丁”和教练的角色:为团队创造试错和创新的土壤,而非事事亲力亲为**。现代公司必须将决策权分散到组织各处,让专业人才在前线迅速反应。这意味着Leader要更加信任团队,勇于放手,让懂技术的一线同事参与重要决定。

Boss层面也是如此:许多企业主如今设立首席AI官(CAIO)这样的新职位,将AI战略融入高层决策,并鼓励各部门定期向AI团队汇报。

除了放权,领导风格也在变”软”。因为AI可以提供客观方案,领导更需要拿出人情味和洞察力来平衡技术与人性的关系。一个显著趋势是,管理者越来越重视团队的学习成长。调查显示,高达62%的员工自觉缺乏有效、安全使用AI的技能,而只有一成认为掌握了所需技能。为此,领导者们纷纷为员工提供AI培训资源,以缩小技能鸿沟。比如某些公司每月举办”AI分享日”,让员工交流心得、领导亲自参与。

总之,AI时代的领导力正在从权威指挥型向赋能协作型演进:会用AI的不一定是小兵,善于激发这些”AI达人”的领导,才能带领团队跑赢未来。

内向工程师的机遇:安静的实力派如何被AI放大?

Section titled “内向工程师的机遇:安静的实力派如何被AI放大?”

AI对工程师的影响因人而异,但对于很多内向却技术过硬的工程师来说,或许正是大显身手的好机会。以往在团队中,外向健谈的人容易因为善于展示而受瞩目,而内向者哪怕能力强,也可能默默无闻。如今AI工具可以成为他们的表达放大器和最佳拍档。

有观点指出,AI的出现为内向者提供了新的协作与表达方式,让思想可以跨越社交障碍直达问题本质,内向的工程师不必再为在人前表现自己而苦恼,而是专注于深度思考和高质量产出。这种变化使得内向者的独立钻研能力被前所未有地放大。

现实案例也印证了这一点:某软件团队里几位平时寡言的成员在引入AI后如虎添翼。他们通过询问AI模型来更好地理解客户反馈,然后带着信心去和客户交流,结果表现大幅提升。可以想象,一个擅长独立解决问题的工程师,配合AI助手,完全可能产出媲美过去十人团队的成果。这些安静的”深潜者”一旦有了AI助攻,往往能一下拿出令人惊艳的成果。

值得注意的是,AI时代也让**“10x工程师”更频繁出现——他们也许话不多,却因为善用技术工具,效率比普通人高出数倍**。企业当然愿意为这样的人才支付高薪,据预测顶尖工程师的薪资可能是普通工程师的3倍。

不过话说回来,内向工程师也需警惕舒适圈陷阱:过度依赖AI代替沟通,反而可能削弱自己的社交能力。所以一方面,AI让内向者更容易凭硬实力脱颖而出;但另一方面,真正优秀的工程师不会拒绝沟通,而是利用AI提高技术表达的自信,同时适应那些AI替代不了的人际合作。只要扬长补短,内向的技术宅们完全有机会在AI时代成为让人刮目相看的安静颠覆者。

下面我们通过一个表格来梳理Boss、Leader和工程师在AI时代的角色变化与应对策略:

变化维度BOSS(企业主)Leader(团队管理者)工程师(含内向型)
决策与工作流程决策更多由数据驱动,日常流程大量自动化;组织架构更扁平,授权一线决策。事务性决策减少,关注战略把控;强调跨部门协同,重塑流程适配AI。重复性任务由AI代劳,专注高价值项目;独立完成整块工作的机会增多。
AI工具应用大力推动全员AI赋能,投资AI基础设施和培训;自身熟悉AI以制定方向。带头学习并推广AI工具,提高团队效率;用AI监督指标、辅助管理。人手一款AI助手(编码、文案等),产能飞涨;持续学习新工具,成为”AI超级用户”。
管理/协作风格由指挥型转向赋能型,鼓励自下而上创新;营造开放学习的公司文化。放权给团队专家,扮演导师和协调者;重视人文关怀与沟通,凝聚士气。更偏向自主和远程协作;善于利用AI沟通(如智能文档、聊天机器人)辅助表达,团队协作更高效。
所需技能与素质理解AI战略与伦理,快速决策抓住AI机遇;拥抱变化,持续学习技术趋势。掌握基本AI知识以指导团队;数据分析决策能力、更高情商和变革推动力。深厚专业技能 + AI使用能力,两者缺一不可;内向者需加强沟通技巧,兼具独立与合作能力。
优势机会利用AI降本增效,小团队实现大产出;敏捷转型赢得市场先机。借助AI解放管理精力,专注战略和创新;带出一支高适应性的”AI原生”团队。技术人才价值两极分化,善用AI者晋升加薪更快;内向工程师凭硬实力崭露头角,成为稀缺10x人才。

结语:顺势而为,找到属于你的优势

Section titled “结语:顺势而为,找到属于你的优势”

AI时代的职场,没有谁能独善其身,但也没有谁注定淘汰。关键在于顺势而为:老板要有前瞻性,拥抱AI让企业跑得更快,同时关注人文精神,别让技术变成冷冰冰的KPI;Leader要转变姿态,从发号施令者变成团队教练,带领大家一起成长,用AI武装团队的同时,用真诚凝聚人心;工程师则更要保持好奇和学习热情,把AI当作得力助手,不断提升自身技能上限。

内向也好外向也罢,每个人都可以在AI浪潮中找到自己的发力点——也许是独当一面的专业能力,也许是跨领域融合创新的点子。用好AI这把”双刃剑”,扬长避短,我们就有机会把机械的工作交给机器,把创造力和温度发挥到极致。

在这个变革的年代,角色可以重新定义,但努力和洞察永远是立于不败之地的法宝。愿你我都在AI时代找到自己的优势位置,乘风破浪,共同进化。

银行风波、流动性和关税:一则“小镇储户”的市场冒险故事

这是一个关于“钱从哪来、又流向哪”的故事。主角不是华尔街,而是你我:工资进账、买基金、看新闻……当美国两家地区银行出事、美联储暗示要“停表”、10年期美债跌到4%下方、又传出中美要不要见面的风声——这些听上去很“远”的事,怎么一步步走进了我们的账户里?


第一章|存款阿姨的“坏消息”

Section titled “第一章|存款阿姨的“坏消息””

周五清晨,“小镇银行”的大厅里,人还没来齐,电子屏忽然跳出一条快讯

Zions 银行披露一笔5,000万美元的贷款坏账;Western Alliance说他们已在8月起诉一个叫 Cantor Group V 的借款方,怀疑有抵押品欺诈。”

大堂经理小声说:“不是系统性爆雷,就是个案的欺诈,但股价先跌了再说。” 隔壁的债券经理补刀:“可别小看,这种‘意外’会让大家更怕风,于是都去抢更安全的债。” 果不其然,10年期美债收益率当天一度探到 ~3.93%-4% 附近——价格涨了、收益率就下去了。

旁白:不是说银行“全线有事”,而是个案把市场神经绷紧——一紧,钱就往债券里躲,股市短线就更容易被**“吓一跳”**。


你可以把金融系统想成一口大水池:

  • 美联储缩表(QT)=慢慢放水走;
  • 财政部户头(TGA)=国家“水缸”,装太满时,留给银行的水会暂时少
  • 隔夜逆回购(ON RRP)=墙角的“备用小水桶”,空了就更指望主池

本周二,鲍威尔出来说话:

“我们可能在未来几个月接近停止缩表的点位,已经看到回购利率等迹象显示流动性在变紧。”

与此同时,银行准备金这口“主水池”边缘被市场紧盯——跌到 3 万亿美元附近,大家就会问:再缩,还顶得住吗?(周度数据见H.4.1) 而ON RRP这个“备用小水桶”,今年几乎见底,意味着再“抽水”,就更可能直接动到银行准备金。 财政这边,TGA 余额10月中旬仍在8,500亿美元上下,也相当“满”。

旁白:水位低+小水桶快空+大水缸较满,大家自然更爱“蹲在安全边”(买国债),股市就会更挑剔。


第三章|好公司,也会“被淋雨”

Section titled “第三章|好公司,也会“被淋雨””

偏偏这个时候,公司基本面并不差。

  • ASML:三季度净销售额 €75 亿毛利率 51.6%;给出旺季Q4指引,甚至说2026年不会低于2025年
  • 台积电:三季度营收 331 亿美元毛利 59.5%;Q4 仍看 322–334 亿美元

旁白:雨不是基本面下的,更多是资金面与情绪的阵雨——伞够大(现金流强、负债健康)的公司,淋一阵就干


第四章|风从海那边吹来:稀土与关税

Section titled “第四章|风从海那边吹来:稀土与关税”

市场又听到一阵海风:

  • 中国10月9日 扩大稀土出口管制(新增元素与技术),全球供应链神经紧张;
  • 美国这边,100%关税的说法此起彼伏,消息面时而强硬、时而缓和,是否在APEC期间会面也成了“悬念剧”。

旁白:这叫**“外生变量”**——哪怕公司自己没变,估值也会被“风声”左右。


第五章|给投资小白的“雨天三件套”

Section titled “第五章|给投资小白的“雨天三件套””
  1. 先看“水位”(别硬扛):

    • 停止缩表的信号更明确、回购利率回落,说明雨要小了;
    • ON RRP几近见底后,若准备金数据止跌企稳,是放晴的早信号;
    • 10年期美债收益率如果稳在 ~4% 附近甚至下破后不再反弹,风险偏好更容易回升。
  2. 再挑“伞面”(别挑花):

    • 现金流稳+负债表健康的龙头(如上游半导体设备/代工)更能扛阵雨
    • 银行个案频出时,板块内要轻仓、分散,等披露更清晰再加。
  3. 最后看“海风”(别装聋):

    • 稀土与关税的走向,会左右制造链成本与估值;重要会议前后,多看两眼新闻再动手。

  • 这轮波动的导火索:地区银行个案信用问题→市场避险债券涨、收益率下、股市承压。
  • 更深的水因子缩表将近尾声的暗示 + 准备金下沿 + RRP见底 + TGA偏高
  • 基本面“对照组”:龙头财报依旧(ASML、台积电)。
  • 最大外部变数稀土与关税消息强弱切换,牵动估值。

一句话策略:把这次当**“资金面的阵雨”看,而不是“房塌了”;雨大时少出门(轻仓/分批),天放晴再跑(加仓)。看天色的三把尺:(1)停表信号(2)准备金与RRP(3)10年期收益率**。


彩蛋|“为什么新闻老说收益率?”

Section titled “彩蛋|“为什么新闻老说收益率?””

因为收益率像全市场的温度计

  • 它跌(到 ~4%),说明大家在抢国债躲雨;
  • 它稳住或回升,常常意味着雨停了,股票的“阳光”会多一点。

写代码只是表象,思考才是软件开发的本质

“代码只是工具,思想才是核心。”

如果你是一名产品经理、独立开发者或初级程序员,这句话可能听起来有些违和。然而,在日常开发工作中,我们往往会发现:编程其实有90% 的时间在思考,只有 10% 在敲键盘。尤其当如今 Claude Code、ChatGPT、Google Gemini 等 AI 编程助手纷纷上岗,自动生成代码变得轻而易举,这一点变得前所未有地清晰。AI 可以替我们写代码,那么我们的价值究竟在哪里?

让我们回想几个典型情景:为了实现一个简单的业务需求,程序员可能绞尽脑汁设计方案,但真正开始写代码却只用了不到半天;发现一个线上 Bug,从日志排查到定位根因花掉两天时间,修复它却只改了一行代码;甚至产品经理常常疑惑:“就一个小功能,写点代码怎么要这么久?“——其实,编码从来都不是开发中最难的部分,搞清楚”要做什么、怎么做”才是。软件开发的本质始终是思考,而非机械地写代码。

在 AI 日益强大的今天,这一点更加突出。如今超过 81% 的开发者已使用 AI 编程助手。比如某银行技术团队引入智能代码助手后,代码编写时间缩短了 40%,缺陷检测准确率提高到 92%。即便如此,团队负责人仍然强调:“AI 生成的代码需要人工二次审核,尤其在涉及安全逻辑与业务规则时,开发者必须保持主导权。” 最终,AI 写出的并发控制代码因为潜在风险还是由人工修正。可见,AI 与人协作的本质是:AI 处理那些重复性、标准化的工作,而人类开发者负责创造性、复杂性的决策。换言之,AI 可以当你的”小帮手”输出代码,但真正决定软件成败的,仍是你脑中的思考与判断。

接下来,我们就从日常开发的几个真实场景出发,看看”思考”是如何占据主导地位的,以及 AI 编程助手如何接手繁琐的编码工作,让你把精力放在更重要的思考上。

场景一:编写业务功能 – 想清楚再动手

Section titled “场景一:编写业务功能 – 想清楚再动手”

拿到一个新需求,很多新人程序员可能第一反应是赶紧开始写代码。但有经验的开发者往往会按下编码的冲动,先花大量时间理解业务:需求想要解决什么问题?有哪些业务规则和边界情况?数据流如何设计?只有把这些逻辑梳理清楚了,才可能写出正确的代码。编码好比把脑海中的方案翻译成计算机语言,这翻译过程本身并不难,难的是脑海中要先有方案。

试想一个常见任务:实现电商下单扣库存的功能。真正耗时的是搞懂”扣库存”背后的业务规则——库存不足怎么办?并发下单如何防止超卖?库存扣减失败如何回滚?这些问题每一个都需要认真思考和设计。相比之下,最后写代码去调用库存服务接口扣减数字,只是几行调用而已。如果逻辑没想透,代码写再多也没用;逻辑想明白了,代码往往寥寥数行即可完成。

有了 AI 工具的辅助,这种”先思考后编码”的流程变得更高效。比如你设计好了业务逻辑,可以直接让 ChatGPT 或 Claude 来产出初步代码实现,大大节省体力劳动。但注意,AI 并不会替你思考需求。它不了解业务本质,只能根据你的描述生成代码。所以,在这个环节中,开发者依然要扮演”大脑”的角色,把业务意图准确传达给 AI。从某种意义上说,AI 迫使我们更严谨地对待需求——因为你给 AI 的指令必须清楚明确,否则生成的代码就会跑偏。这也再次证明了:写好业务代码之前,想明白业务逻辑是第一位的工作。代码好不好,取决于你思考得有多透彻。

场景二:对接外部接口 – 理解胜于编码

Section titled “场景二:对接外部接口 – 理解胜于编码”

很多开发者都有过调用第三方 API 的经历。乍一看,这似乎就是”写几行HTTP请求代码”的简单活儿,但真正费时间的部分在哪里?往往是在阅读和理解接口文档:搞清楚哪个URL对应什么功能、请求需要哪些参数、鉴权/签名怎么做、返回数据格式如何、异常情况有哪些。读文档、理清调用流程,这些都是纯脑力活动,一行代码还没写就可能花掉大把时间。

举个例子,假如我们要集成一个支付平台接口。从对方的 API 文档中找正确的接口地址、弄明白交易订单的数据结构、了解重试策略和错误码含义,到在自己系统里设计调用顺序和容错机制……这些都需要深入思考和判断。一旦这些都想明白了,“写代码”部分可能就是按照文档拼凑几个HTTP请求、解析一下返回值,如此而已。现在有了 AI 助手,这方面可以更加轻松:你完全可以把接口文档丢给 ChatGPT,请它生成调用代码,甚至让它根据错误码自动写好重试逻辑。但前提仍然是——你自己充分理解了接口的用途和约束,并告诉 AI 应该怎么做。否则 AI 瞎编出来的代码只会南辕北辙。

对接接口其实考验的是开发者的学习和理解能力。很多时候,我们扮演的角色更像”翻译官”,把第三方系统的语言翻译成本地代码。AI 可以加速这个翻译过程,但不能代替我们去领会”原文”意思。如果让 AI 在不了解业务背景的情况下调用接口,它可能会漏掉关键参数或者误用错用——这些坑最终还是要人来发现和填补。所以在对接接口的场景中,我们更应该把时间投入在理解接口背后的业务含义和规划调用方案上,而不是纠结于具体的代码实现。有了这样的认识,再配合 AI 快速产出代码,你就能事半功倍。

场景三:修复 Bug – 分析问题比改代码更耗时

Section titled “场景三:修复 Bug – 分析问题比改代码更耗时”

调试(Debug)几乎是程序员日常的一部分。有句戏言:“写代码只有30分钟,调试可能花3小时”。当系统出现一个 Bug,开发者首先要做的通常不是立刻改代码,而是花大量时间去思考和调查:重现问题、查看日志、阅读相关代码、分析可能的成因,逐步缩小问题范围。这实际是在解谜——需要缜密的逻辑推理和对系统的深刻理解。等真正找到症结所在,修改代码往往是最简单的一步。

想象你在维护一个复杂系统,收到用户反馈某个功能偶尔报错。你可能需要通读错误日志,推测是哪个模块出了问题;加一些调试输出反复重跑,找出触发Bug的特定条件;甚至画出流程图来梳理代码执行路径。这一系列脑力劳动之后,终于发现是某个边界条件下少了一句判空检查。那么补上这句判断、改动代码也许不到5分钟!绝大部分调试时间,都消耗在思考和定位问题上,真正写入的代码改动可能微乎其微。

AI 在调试方面能帮上什么忙呢?目前来看,AI 可以作为”助手”给出一些提示,但仍无法取代人类的思考。比如,你可以把出错的代码和日志扔给 ChatGPT,请它分析可能的原因,或许能提供一些有价值的思路。但最终判断真相、验证猜想的过程,依然要靠开发者。真实世界的调试往往牵涉整个项目的上下文、架构和业务逻辑,不是一个孤立的错误行导致的。AI 如果不了解全局,给出的建议可能隔靴搔痒。相反,人类工程师具备对系统的整体认识,能综合各种线索做出判断。

当然,我们也看到一些 AI 工具在朝这个方向努力。例如 Anthropic 的 Claude 擅长循序渐进地分析问题,给出相对详尽的排查步骤,而 OpenAI 的ChatGPT对显而易见的 bug 能快速定位修复。这些工具就像调试中的对话伙伴,当我们被问题卡住时,可以向它描述症状、询问可能原因,从而激发我们的思考,或发现被我们忽略的细节。可以说,AI 在调试中扮演的是”镜子”和”建议者”的角色——通过与它对话,我们更清晰地整理自己的思路。而哪怕AI给出了解决方案,我们也必须认真验证。最终拍板做决定的,还是人脑本身。调试工作的本质,依然是由人类负责的有目的的探索和推理,AI 只是加速我们获得洞见的工具。

场景四:编写测试 – 设计用例重于实现

Section titled “场景四:编写测试 – 设计用例重于实现”

“没有测试就没有质量”。写测试用例又是开发流程中一个典型环节。在这里,同样体现出构思>编码的特点:写测试最难的是设计测试场景和用例,也就是思考”要测什么”和”哪些情况可能出问题”。至于把这些想法转换成测试代码,那是相对机械的工作。

一个资深测试开发曾分享过经验:设计测试用例其实是在和自己的代码过招。你要挖空心思想出各种极端情况、边界条件、异常输入,来挑战代码的健壮性。例如,对于一个订单系统,你可能需要设计:“下单量超出库存时是否正确失败?”、“数据库连接中断时订单流程如何处理?”、“并发下单1000笔结果是否一致?“等等。每一个测试场景的想出,都需要对业务和实现细节非常了解,并带着批判性思维去找茬。这种脑力投入,占据了测试开发工作的绝大部分。而真正落笔去编写测试代码(调用断言、构造数据等),就像按照剧本把戏演出来,反倒不那么烧脑。

令人欣喜的是,AI 在测试编写上能发挥很大作用。我们完全可以把某段代码发给 AI,直接让它根据代码逻辑生成一系列针对性的单元测试。实际尝试表明,AI 往往能产出相当不错的测试代码,甚至能根据注释和上下文猜出开发者的意图,覆盖到一些人可能漏掉的情况。然而,这并不意味着人类可以完全撒手不管。AI 写出来的测试需不需要改进?测试场景是否全面、合理?这些判断仍要靠人。正如一位开发者所说:“AI 特别擅长把’写一个测试验证…’这样的句子转化为代码。现在你的工作,就是想出那些可能会让代码崩溃的输入组合,而不用再为写测试代码这苦差事发愁了。“。换句话说,我们负责脑洞大开地想场景,AI负责听从指令写代码,各司其职。

在实践中,一些团队已经开始探索”AI + 测试”的新范式。例如,有人采用**“代码先行,测试后补”的流程**:先让 AI 根据已有代码生成一批测试,然后由开发者审阅这些测试是否符合预期、是否还漏掉了什么情况,接着再指导 AI 修正、补充。这个过程中,人类审阅和思考的部分依旧不可或缺——AI 写错了用错了,我们要指出来;AI 忘了考虑某种边界,我们要提醒它。如果把大脑完全关掉,全盘接受 AI 生成的测试,那么测试的意义就丧失了。测试的目的在于验证和保障质量,这一职责始终掌握在人的手中。总而言之,写测试需要花更多心思在”想测哪些情况”上。至于那些样板式的测试代码,不妨放心交给 AI 。这样既提高效率,又保证我们不遗漏对关键场景的思考。

场景五:制定技术方案 – 方案脑筋胜过代码实现

Section titled “场景五:制定技术方案 – 方案脑筋胜过代码实现”

当需要规划一项新系统架构或技术方案时,程序员更是进入了”纯思考模式”。比如要设计一个新的推荐算法、搭建一套微服务系统、或制定数据库分库分表方案……这些任务几乎不涉及马上写出产品代码,而是要求我们动用经验、知识和创造力,在脑海中或白板上勾勒出方案的蓝图。

在这个阶段,我们考虑的是:系统要满足哪些业务需求和非功能要求(性能、扩展性、安全等)?有哪些可选方案,各自的优缺点和实现复杂度如何?最终选哪种方案最稳妥?每一个问题都需要深入调研和审慎权衡。这完全是脑力工作的天下。很多开发者会画架构图、列模块清单、写设计文档——这些都是”可视化的思考”,帮助理清思路。一旦方案确定下来,实现它反而是后面的事情了。

AI 工具在方案设计阶段也能提供一些帮助,但仍是辅助角色。比如你可以让 ChatGPT 给出某种架构模式的示例、参考业界最佳实践,或者让它基于需求初稿产出一个技术方案的大纲供你润色。但真正懂业务上下文、能做出最终决策的还是你这个架构师本人。事实上,AI 越是发展,我们越能体会到架构设计这类创造性工作有多依赖人类的洞见。AI 或许能根据大量语料给出一般性的方案建议,却不了解你团队的独特情况、隐含约束和远景目标,这些只能由你来权衡。

值得一提的是,现在已经出现一些生成式AI在软件工程高层次应用的苗头。例如有人尝试让 AI 根据需求描述直接生成整体代码仓库(即所谓”代码库级别”的助手)。这些助手号称可以”一键生成完整项目”,听起来好像架构师都要失业。但实际上,这类 AI 工具目前还远不成熟,生成的代码库往往问题多多,无法直接用。即便将来功能强大了,它也需要架构师先想好高层设计并以某种方式输入给它。正如学术研究所指出的,这类工具的意义反而在于让开发者腾出精力专注更高层次的设计和部署决策——AI 把代码细节都包办,开发者则站在更宏观的角度上把控方向。可见,技术方案的设计仍是由人来主导的大脑活动。AI 可以把你脑中的方案实现出来,甚至帮你验证部分思路,但让 AI 主导架构设计本身,目前来看还不现实,也不靠谱。

综上,在制定技术方案的过程中,我们扮演的是”思想家”和”决策者”,这和写代码的”工匠”角色截然不同。好方案胜过烂实现,一个清晰合理的设计往往能大幅减少实现和维护的成本。反过来,如果在方案阶段没有想透,匆忙上马写代码,日后埋下的坑可能让团队付出十倍百倍的代价。AI 的出现没有改变这一点,反而提醒我们更加重视方案阶段的思考:因为代码可以让机器代劳,但架构设计的创造性和责任心无法外包给机器。

结论:在 AI 时代做一个更善于思考的开发者

Section titled “结论:在 AI 时代做一个更善于思考的开发者”

无论你是产品经理、独立开发者,还是初出茅庐的程序员,希望以上这些场景分析能引起你的共鸣:写代码从来都不是构建软件的核心竞争力,深度思考和问题解决能力才是。正如业内常言:“Programming is 90% thinking and 10% typing.”(编程是90%的思考+阅读,10%的敲键盘)。随着 AI 工具越发强大,这句话不但没有过时,反而更真实了。因为代码产出这块,AI 可以帮我们搞定很多,我们反而更加看清,自己的价值在于提出正确的问题、做出明智的决策、创造性地解决复杂问题。这些是 AI 暂时无法取代的能力,也是我们应该持续修炼的方向。

对于产品经理而言,理解开发过程中的”思考含量”有助于更合理地安排项目时间和沟通期望。当开发同学说某个需求实现需要一周时间时,不要只盯着代码行数多少,更多去理解其中设计方案、权衡取舍所花的脑力劳动。你甚至可以利用 AI 工具自己尝试产出一点原型代码,这会让你更加体会到:从 0 到 1 搭建一个功能,最费劲的是把模糊的需求变成明确的方案,写代码只是最后的搬砖。如果产品和开发都专注于把前期思考做充分,后面的实现就会顺畅许多。

对于独立开发者或全栈工程师,你可能身兼数职,更需要合理分配”思考 vs. 编码”的精力配比。好消息是,有了 AI 帮手,你可以大胆地把一些重复劳动交给它,比如生成脚手架代码、简单的增删改查、格式转换等,把宝贵的脑力留给那些只有你才能做出的决定——例如产品功能的创意、架构选型、核心算法的设计等等。正如有开发者感叹的那样:引入 AI 辅助后,开发者的角色正从以”写代码”为主,转向以”设计架构、分解任务、优化提示词、审核代码”为主。越早适应这种转变,去培养对应的能力,你就越能在新时代里保持竞争力。

对于初级程序员,不要害怕 AI “抢饭碗”,也不要把自己降格为 AI 的码农。相反,你应该把 AI 当作导师和工具,多问几个”为什么”,多利用它学习更高层次的知识。调查显示,很多开发者使用 AI 辅助编码的首要原因竟然是学习,比如学习新的技术知识、了解最佳实践等。所以新人更要注重打好思考问题的基础:在拿到任务时,先自己尝试分析和设计,然后可以让 AI 给出另一种实现思路,与自己的思路比对,找出差距。从中你会成长得更快。切忌完全不思考就把问题丢给 AI,拿到答案也不求甚解地照搬——长此以往,你可能会陷入”能力空心化”的危险。AI 最终服务的是会思考的人,而不会思考的人终将被淘汰。这一点在 AI 时代只会更加明显。

最后,我们要意识到:AI 编程助手的出现,并不是让我们彻底解放、大脑下班,恰恰相反,它倒逼每一位开发者更清楚地认识到自己真正的价值所在。既然写代码的体力活可以自动化了,那么我们更应该把时间投入到深度理解业务、精心设计方案、严格把控质量、持续创新这些需要人类智慧的事情上。这不仅不会让我们失业,反而会让我们成为更高效、更有创造力的开发者。

让 AI 当好我们的”代码小工”,让我们人类自己成为更优秀的”系统设计师”和”问题解决专家”。当你学会充分利用 AI 去承担繁琐的实现工作,你会惊喜地发现:脑海中那些天马行空的创意,实现出来的速度变快了;曾经望而生畏的复杂需求,也因你有更多时间深思熟虑而变得迎刃而解。软件开发的本质始终是思考,这一点在 AI 加持下从未改变,只是分工更明确——机器负责听话地写代码,人类负责聪明地思考问题。

希望这篇分享能启发你在今后的工作中更加注重思考的力量,也勇于拥抱 AI 工具为你所用。把重复劳动交给机器,让你的脑力创造更大价值! 🎉

让 Claude Skills 帮你“开外挂”:三步上手、亮点速览、8 个真·落地场景

有没有这种时刻:你写报表像搬砖、做PPT像熬夜赶工,而同事却像开了挂,一条指令就生成成套文档、还自带品牌规范? 新发布的 Claude Skills,就是把这种“外挂”装进 Claude 里的方法。它把一堆重复活封装成模块,自动匹配、自动调用,像“专长包”一样随叫随到。


Claude Skills 是什么?(一句话版)

Section titled “Claude Skills 是什么?(一句话版)”

一个文件夹 = 一项专长。 里面放说明(SKILL.md)、脚本、资源。Claude 会按需加载并在合适的任务里自动调用。你不用会写代码,也能把自己的工作套路变成“可复用的技能”。

亮点速读 – 自动触发:根据任务语义匹配合适的 Skill – 可组合:多个 Skill 可协同完成复杂工作 – 可执行代码:必要时跑脚本,稳定、可复现 – 全场景可用:Claude.ai、Claude Code、API 同步可用 – 企业就绪:品牌规范、合规策略、表格自动化一把梭


它怎么“自动”:从发现到协同的 5 个瞬间

Section titled “它怎么“自动”:从发现到协同的 5 个瞬间”
  1. 扫描 & 发现:启动时扫描可用技能并读取摘要(极省上下文)。
  2. 匹配:你的请求一来,Claude 判断是否命中某项技能。
  3. 激活:命中就加载该技能需要的说明/资源/脚本。
  4. 执行:按说明完成任务,必要时调用代码工具。
  5. 协同:多个技能可并行或串行“接力”。

A. 安装 Claude Code(可选但强烈推荐)

Terminal window
npm install -g @anthropic-ai/claude-code

安装好后即可在本地项目中使用 Skills。

B. 在 Claude/Claude Code 里启用 Skills 设置里打开 Code execution / File creation,在 Skills 区域按需开启或上传 ZIP(自定义技能)。

C. 自定义一个 Skill(最小结构)

  • 新建文件夹 my-skill/
  • 写一个 SKILL.md:顶部 YAML 里包含 namedescription;正文写步骤、约束;需要的话再配 resources/ 或脚本。
  • 放到个人目录、项目目录或插件来源里(例如 .claude/skillsproject/claude/skills),Claude 会自动发现。

想直接上手?看看官方与社区示例库,改名即用。


SKILL.md 片段(示意):

---
name: Branded PPT Maker
description: Convert an outline to a PPT with our brand fonts, colors, and slide layout rules.
allowed-tools:
- python:read-only
- bash:read-only
---
# Instructions
- Read /resources/brand-guidelines.pdf
- Use title/body styles from page 5
- Build slide outline from user's bullets
- Export as .pptx

要点:用人话写清触发关键词、边界、输入输出;把规范、模板、示例都丢进 resources/;需要稳定步骤时配脚本


工作场景:4 个“省时到离谱”的用法

Section titled “工作场景:4 个“省时到离谱”的用法”

上传模板 + 规则,自动填公式、透视表、图表配色。每周复盘 10 分钟搞定。

喂给品牌手册和母版,Skill 自动套版、控字数、控对齐,还能输出成套讲稿。

把用例和选择器放进资源夹,脚本负责点击/断言,Skill 出一份带截图的测试报告。

把公司政策和黑名单词库放资源里,Skill 扫文档并标注风险句子,附改写建议。


生活场景:4 个“越用越上头”的玩法

Section titled “生活场景:4 个“越用越上头”的玩法”

输入城市、天数、偏好。Skill 拉行程、订路线、估预算,顺手生成一张 Excel 明细。

把体重目标和过敏原写进 SKILL.md 规则,自动给出一周食谱 + 购物单。

导入水电网账单 CSV,Skill 分类、纠错、可视化,最后生成“该谁付多少”的清单。

活动流程模板 + 注意事项打包成 Skill,自动生成群公告、签到表、物资清单。


  • 要不要担心安全? 官方建议只启用可信来源的技能;涉及代码执行的技能会受限在沙箱并带权限控制。
  • 谁能用? Pro、Max、Team、Enterprise 已开放,并且可在 Claude.ai、Claude Code 与 API 侧使用。
  • 哪里找示例? 先看官方/社区仓库,挑近似场景改一改就能跑。

说白了,Claude Skills = 把“你的工作流”产品化。 把零散的经验、规范、模板,封装成可触发、可复用、可协同的技能。 今天装一个“报表 Skill”,明天再加一个“品牌 Skill”,你的 AI 助手就真的会越用越懂你

你觉得先把哪项工作封装成 Skill 最值?欢迎在评论区聊聊。

用 OpenSpec + Claude Code,跑通一套高效、轻量和可控的规格驱动开发流程

用 OpenSpec 写“剧本”,用 Claude 执行“剧本”。三步走,从模糊需求到可落地改动,全程留痕、可回放、可协作。


做功能评审,大家各说各话;开干之后,产品改口、需求漂移、PR 回滚……你是不是也被这种节奏拖累过?

我最近把 OpenSpec + Claude 搭了一遍流程。装、起、提、落、归 五个动作,团队就能同步心智、快速交付,还能把过程“固化”成资产。下面就用一套真实命令与输出,带你 10 分钟走一遍。


  • 2 分钟上手npm i -g @fission-ai/openspec && openspec init,开箱生成 AGENTS.md、目录结构、工具预设。零 API Key 依赖。
  • 全 Markdown:提案、规格、任务分解都在 .md,人机可读、跨 IDE/Agent 可移植。
  • Claude 深度协作:通过 插件/指令 的方式,把“提案→落地→归档”串成标准作业流。
  • 版本化的共识:每个变更都可追溯,从「想法」到「实现」有据可依。且 OpenSpec 仍在活跃更新(v0.12.0 刚加了新 CLI 支持)。

Terminal window
npm install -g @fission-ai/openspec@latest
openspec --version

社区文档与仓库均给到同样的安装指引,上手门槛极低。


在项目根目录:

Terminal window
openspec init

它会创建 Root AGENTS.md、标准目录、并引导你勾选常用 AI 助手(Claude Code、Cursor、Copilot、Amazon Q 等)。输出里清清楚楚列了“已创建的工具”和“下一步做什么”。等于给所有 Agent 发了一份《进组须知》

为什么强调 AGENTS.md?因为它就是给 Agent 看的 README:怎么装依赖、怎么跑测试、代码风格是什么——别让模型瞎猜


直接把提示丢给你的助手:

“请阅读 openspec/project.md,帮我补全项目目的、技术栈、规范等。”

这一步会形成项目语境基线:语言版本、依赖、错误处理、目录约定、测试策略……之后的所有提案与实现,都在同一个语境里协作。(示例里已把 YouTube 爬取、并行处理、前后端约定等都写进去了)


当你想加一个功能,比如“直接下载 YouTube 字幕”,执行:

/openspec:proposal with @engineering/00-issues/10-feature-xxx.md

生成的提案包含 Why / What&How / 验收标准 / 测试场景,全部 Markdown,易读、可评审、好跟踪。这一步定锚“共识”,而不是直接“开干”。

# 10. Feature: Download subtitles directly from YouTube videos
## Why
Currently, the `vs-digital-garden` project downloads subtitles using an M3U8 playlist approach, which can be unreliable and slow. By implementing a direct subtitle download method using YouTube's API or direct HTTP requests, we can improve the reliability and speed of subtitle retrieval. This enhancement will ensure that users have access to accurate subtitles for their videos, enhancing the overall user experience and accessibility of the content.
## What && How
- Change `_download_subtitle_file` method in `vs-digital-garden-python/src/crawler.py` to download subtitles directly from YouTube using `requests` instead of current method with M3U8 playlist.
## Acceptance Criteria
### Testing
Generate BDD test cases for the new subtitle download method, including scenarios for successful downloads, handling of different subtitle formats, and fallback mechanisms in case of failures.

  • /openspec:apply → 将提案具体落实到代码与文档变更
  • /openspec:archive → 完成后归档,留存变更历史

整个闭环在 Claude 里就能走通;配合 Claude Code 插件,这些指令可以打包共享到团队环境,复制一套成熟工作流给所有人。


OpenSpec 把“要做什么”写清楚,Claude 再把“怎么做”执行出来。你会发现评审更短、返工更少。

纯文本 Markdown 对人和模型都友好,指令清晰、来回提问更少。社区实测里,多人提到“Token 使用更省、执行节奏更稳”。(可参考教程与视频复盘)

借助 Claude Code 插件体系,把 Slash 命令、Agent 角色、Hook 全部打包,一键安装到新同事环境,标准化开发体验

OpenSpec 仓库活跃、版本更新频繁(如 2025-10-14 发布 v0.12.0)。这意味着你踩到的问题,生态大概率在完善。

有不同声音吗?当然有。也有人质疑“Spec-driven 太啰嗦”。建议:从一个功能点试跑一周,用真数据说话。


一把梳理:你的第一条“从 0 到 1”流水线

Section titled “一把梳理:你的第一条“从 0 到 1”流水线”
  1. 安装npm i -g @fission-ai/openspec && openspec init
  2. 建共识:补全 openspec/project.md
  3. 提需求/openspec:proposal 写清 Why/What/验收
  4. 做实现/openspec:apply 由 Claude 生成/修改代码
  5. 留痕迹/openspec:archive 关单、沉淀为知识

小贴士:用 AGENTS.md 把“运行/测试/风格”写死;用 Claude 插件发给全员,一次设置,全队受益。


产品讨论再热闹,不如把分歧写进 Spec、把共识写成历史。 OpenSpec + Claude,不是多一个工具,而是把“怎么合作”变成了可执行的剧本

2025年Q3AI芯片产业链财报开门红:阿斯麦、台积电业绩超预期,英伟达将何去何从?

开篇:科技股财报季拉开帷幕,产业链信心大增

Section titled “开篇:科技股财报季拉开帷幕,产业链信心大增”

正如本次财报季所展示的,AI芯片产业链正迎来全面开花的局面。阿斯麦(ASML)和台积电(TSMC)在2025年第三季度的财报中双双交出超预期答卷,更重要的是,两家公司对未来的展望明显转向乐观——这与三个月前的谨慎态度形成鲜明对比。

  • 营收75亿欧元(约82亿美元),毛利率达51.6%
  • 净利润21.25亿欧元,高于市场预期
  • Q4指引大幅上调至92-98亿欧元,毛利率维持在51%-53%
  • 最关键的转变:公司明确表示2026年业绩不会低于2025年,扭转了此前的不确定表态
  • 营收9,899.2亿新台币(约322亿美元),同比增长39%
  • 净利润4,523亿新台币(约148亿美元),创历史新高
  • 美股ADR每股收益同比增长39%,但动态市盈率仅33倍,PEG低于1
  • 全年营收增速从30%上调至35%
  • 毛利率高达59.5%,显示强劲的定价能力

这两份财报传递的核心信息是:人工智能加速本身正在加速(AI acceleration is itself being accelerated)。

供应链三角关系:阿斯麦→台积电→英伟达的产业链传导

Section titled “供应链三角关系:阿斯麦→台积电→英伟达的产业链传导”

要理解这三家公司的关联性,需要先搞清楚AI芯片产业链的关键节点:

  • 全球唯一的极紫外光刻(EUV)设备供应商
  • 每台EUV机器售价超过2亿美元,最新的High-NA EUV更是高达3.8亿美元
  • 台积电、三星和英特尔等所有先进制程厂商都完全依赖ASML的设备

台积电(TSMC) - 先进芯片代工之王

Section titled “台积电(TSMC) - 先进芯片代工之王”
  • 占据全球晶圆代工市场61%份额,先进制程(7nm以下)份额达67%
  • 英伟达、苹果、AMD等所有顶级AI芯片设计公司的芯片都由台积电制造
  • 目前已掌握3nm量产,正在推进2nm工艺
  • 市值达4.38万亿美元,数据中心业务占总营收88%
  • 完全依赖台积电的先进制程来生产H100、H200和最新的Blackwell系列芯片
  • Blackwell芯片在FY25 Q4单季度就创造了110亿美元营收,创下”公司史上最快产品爬坡速度”

这条供应链的传导逻辑是:ASML的EUV设备→台积电的先进制程产能→英伟达的AI芯片供应能力。任何一个环节出现瓶颈,都会影响整个产业链的扩张速度。

数据分析:三家公司的股价与业绩相关性

Section titled “数据分析:三家公司的股价与业绩相关性”

通过对2022年至2025年三家公司历次财报发布后的股价表现分析,我们发现了一些重要规律:

核心发现一:台积电与英伟达的相关性更强

Section titled “核心发现一:台积电与英伟达的相关性更强”

我们的统计分析显示:

  • 台积电财报后10天,英伟达股价的相关系数达到0.70(p值=0.004),具有显著的统计学意义
  • 阿斯麦财报后10天,英伟达股价的相关系数为0.49(p值=0.065),相关性较弱
  • 在30天时间窗口,台积电与英伟达的相关性依然保持在0.48,而阿斯麦则降至0.13

这一发现印证了产业链距离越近,股价联动性越强的逻辑。台积电是英伟达的直接供应商,其产能扩张和技术进展直接决定了英伟达能够出货多少芯片。

核心发现二:供应商财报对英伟达股价有正向拉动

Section titled “核心发现二:供应商财报对英伟达股价有正向拉动”

统计数据显示:

  • 阿斯麦发布财报后的10天内,英伟达平均上涨3.8%,30天内平均上涨14.2%
  • 台积电发布财报后的10天内,英伟达平均上涨2.1%,30天内平均上涨15.8%
  • 2023年(AI爆发元年)表现最为突出,阿斯麦财报后英伟达30天平均涨幅达19.8%,台积电财报后更是高达26.7%

核心发现三:2024-2025年相关性有所减弱,但依然显著

Section titled “核心发现三:2024-2025年相关性有所减弱,但依然显著”

进入2024年后,随着英伟达市值突破3万亿美元,其股价走势开始受到更多宏观因素影响:

  • 美联储政策预期
  • 美国对华芯片出口管制政策
  • 竞争对手(AMD、自研芯片的云厂商)的动向

尽管如此,供应链伙伴的财报依然对英伟达有重要的指引意义。特别是台积电的产能扩张计划和阿斯麦的EUV出货量,直接映射了英伟达未来12-18个月的最大潜在出货量。

NVIDIA、ASML与台积电三家公司自2022年初至今的股价表现对比(以2022年1月为基准=100)

上图清晰地展示了三家公司自2022年初以来的股价走势。英伟达以497%的涨幅遥遥领先,台积电上涨137%,而阿斯麦仅上涨27%。这一巨大差距反映了价值捕获能力的差异:

  • 英伟达:凭借CUDA软件生态和领先的芯片设计,占据了AI芯片产业链的最高附加值环节
  • 台积电:作为制造环节,利润率虽高(毛利率约60%),但资本支出巨大,限制了股价弹性
  • 阿斯麦:虽然垄断EUV设备,但客户有限(全球仅台积电、三星、英特尔三家主要买家),且产品交付周期长,营收增长相对平稳

历年财报季的股价表现:谁是领先指标?

Section titled “历年财报季的股价表现:谁是领先指标?”
年份NVIDIA收益率ASML收益率TSMC收益率
2022-51.5%-31.5%-42.2%
2023+245.8%+37.7%+40.5%
2024+178.8%-3.3%+94.5%
2025(YTD)+33.9%+45.7%+54.3%

关键观察:

  • 2022年熊市:三家公司全部大幅下跌,但阿斯麦跌幅最小,显示其防御性
  • 2023年AI元年:英伟达暴涨246%,台积电和阿斯麦涨幅相对温和(38-41%)
  • 2024年分化:英伟达继续大涨179%,台积电跟涨95%,但阿斯麦小跌3%——这反映了市场对中国市场限制和宏观经济的担忧
  • 2025年迄今:三家公司首次呈现同步上涨态势,且台积电和阿斯麦的涨幅甚至超过英伟达,显示市场开始重新评估供应链上游价值

信号一:阿斯麦对2026年的态度发生180度转变

Section titled “信号一:阿斯麦对2026年的态度发生180度转变”

2024年7月(Q2财报),阿斯麦曾警告”由于宏观经济和地缘政治不确定性增加,无法确认2026年能否继续保持增长”,导致股价单日暴跌近16%。

但在本次Q3财报中,阿斯麦明确表示**“2026年总营收不会低于2025年”**,并强调AI驱动的需求依然强劲。这一转变背后的原因包括:

  • EUV订单强劲,Q3净订单达54亿欧元,其中EUV占36亿欧元
  • 高端NA EUV设备开始出货,单价更高(3.8亿美元/台)
  • 台积电、三星、英特尔都在扩产,对光刻机需求持续旺盛

信号二:台积电将全年增速从30%上调至35%

Section titled “信号二:台积电将全年增速从30%上调至35%”

台积电在Q3财报中将2025年全年美元营收增速从此前的30%上调至35%,这是年内第二次上调指引。CFO黄仁昭表示:“我们的业务在第三季度受到先进制程技术强劲需求的支持,随着我们进入第四季度,我们预计对领先技术的强劲需求将持续。”

更重要的是,台积电透露其3nm和更先进制程的产能已被完全预订,客户正在”争夺产能”。这直接说明英伟达、苹果等客户对未来需求非常乐观。

信号三:英伟达Blackwell供不应求,Q4指引超预期

Section titled “信号三:英伟达Blackwell供不应求,Q4指引超预期”

虽然英伟达尚未发布Q3财报(将于11月19日公布),但其Q2财报已显示Blackwell正在快速爬坡:

  • Q2 Blackwell营收环比增长17%
  • Q3指引为540亿美元(±2%),超出华尔街预期的527亿美元
  • CEO黄仁勋表示”Blackwell的需求令人惊讶…我们已成功实现Blackwell AI超级计算机的大规模量产”

UBS分析师将Blackwell Q4营收预期从50亿美元大幅上调至90亿美元,显示需求远超预期。

基于供应链伙伴的最新财报和历史相关性分析,我们对英伟达的表现做出以下预测:

  • 营收:分析师一致预期为540亿美元,我们认为大概率会小幅超出,可能达到545-550亿美元
  • 数据中心营收:预计达到470-480亿美元,占比88-89%
  • 毛利率:预计在73-74%之间,较Q2的72.7%略有提升
  • Q4指引:预计会给出600-650亿美元的指引,对应Blackwell的持续爬坡

短期(Q3财报后1个月):如果业绩符合预期,股价有望测试200-210美元区间(较当前180美元有11-17%上涨空间)

中期(至2025年底):基于华尔街平均目标价222美元,上涨空间约23%

乐观情景:如果Blackwell产能超预期且需求持续强劲,HSBC给出的320美元目标价也并非不可能,对应78%上涨空间

  • 宏观经济放缓:全球经济增速下滑可能抑制企业IT支出
  • 竞争加剧:AMD的MI300系列和云厂商的自研芯片(如Google TPU、Amazon Trainium)正在蚕食部分市场
  • 地缘政治:美国对华芯片出口管制可能进一步收紧
  • 估值压力:当前51倍市盈率虽低于历史峰值,但仍显著高于市场平均水平

投资启示:如何布局AI芯片产业链?

Section titled “投资启示:如何布局AI芯片产业链?”

基于我们的深度研究,给出以下投资建议:

  • 优势:技术领先优势明显,CUDA软件生态构建的护城河短期难以撼动
  • 估值:PE 51倍看似不低,但PEG约1.3(以35-40%增速计算)仍属合理
  • 配置建议:核心持仓,占AI主题投资的50-60%
  • 优势:先进制程全球领先,客户多元化(苹果、英伟达、AMD等),地位难以替代
  • 估值:PE 33.6倍,低于英伟达,且PEG低于1,具有吸引力
  • 配置建议:稳健型投资者可作为主要持仓,占30-40%
  • 优势:EUV光刻机绝对垄断,长期确定性高
  • 劣势:增长相对缓慢,受宏观周期影响较大,2024年曾因中国市场担忧大跌
  • 配置建议:防御性配置,占10-20%

警示:关注供应链传导的时滞效应

Section titled “警示:关注供应链传导的时滞效应”

我们的研究表明,阿斯麦和台积电的财报对英伟达股价的影响具有时滞性:

  • 短期(10天内):相关系数较高,但绝对涨幅有限
  • 中期(30天内):相关性减弱,但累计涨幅更大
  • 长期(季度级别):三家公司的股价最终会向业绩基本面收敛

因此,不建议基于供应商财报进行短线交易,而应关注长期趋势。

结语:AI加速的加速度才刚刚开始

Section titled “结语:AI加速的加速度才刚刚开始”

阿斯麦和台积电的Q3财报超预期,不仅是两家公司自身业绩的胜利,更是整个AI芯片产业链景气度的风向标。正如台积电CFO所言:“我们看到AI相关需求的持续强劲,这一趋势预计将延续至2026年。”

从历史数据来看,台积电财报后30天内英伟达平均上涨15.8%,阿斯麦财报后30天内英伟达平均上涨14.2%。本轮财报季两家供应商双双超预期,为英伟达即将到来的Q3财报奠定了良好基调。

对于投资者而言,当前的AI芯片产业链呈现出罕见的**“全链条共振”**:上游的阿斯麦设备订单饱满、中游的台积电产能满载、下游的英伟达需求旺盛。在这样的背景下,我们有理由相信:人工智能加速的加速度,才刚刚开始。


风险提示:投资有风险,入市需谨慎。本文仅供参考,不构成投资建议。

2025年Q3银行股财报季与美股市场相关性分析及AI板块展望

核心发现:银行股与大盘的显著关联

Section titled “核心发现:银行股与大盘的显著关联”

基于2020年10月至2025年10月的历史数据分析,银行股与美股主要指数呈现出明显的正相关性。金融板块ETF(XLF)与标普500指数的日收益率相关系数达到0.789,显示出强正相关关系。这意味着银行股往往与大盘同步波动,但相关性并非完美同步,仍保留一定独立性。

相比之下,银行股与纳斯达克指数的相关性较低,仅为0.626,反映出金融板块与科技为主的纳斯达克市场存在一定差异。值得注意的是,标普500与纳斯达克之间的相关系数高达0.951,显示两大指数高度联动。

通过分析过去5年共21个季度的银行财报发布窗口(财报发布前5个交易日和发布后5个交易日),数据揭示了几个关键趋势:

银行股财报发布后,金融板块与标普500指数在71.4%的情况下呈现同向波动,与纳斯达克的同步率为66.7%。这表明银行财报对大盘具有显著的方向性影响。

财报发布后5个交易日,金融板块平均上涨0.49%,略优于标普500的0.09%和纳斯达克的-0.19%。这说明强劲的银行财报往往对金融板块构成更直接的提振,而对科技股的拉动作用相对有限。

不同年份呈现明显分化。2022年银行财报发布后市场表现最强(金融板块后5日平均涨2.47%),而2020-2021年及2025年呈现负回报,反映出宏观经济环境和市场情绪的差异。

2025年10月14-15日,摩根大通、高盛、花旗集团、富国银行和贝莱德等大型银行集体公布第三季度业绩,全部超出预期。具体来看:

  • 摩根大通:营收增长9%至471亿美元,净利润激增12%至144亿美元,投资银行业务收入增长17%
  • 高盛:净利润暴涨37%至41亿美元,投资银行收入飙升42%,并购咨询收入增长60%
  • 花旗集团:营收增长9%至221亿美元,投资银行收入增长34%

这些强劲业绩主要得益于交易活动激增和投资银行业务复苏。第三季度股市创历史新高,并购活动回暖,为华尔街创造了有利环境。然而,尽管业绩亮眼,摩根大通和高盛股价在财报发布当日分别下跌3.8%和5%,反映出市场对估值和未来增长的谨慎态度。

从2020年10月至2025年10月,金融板块(XLF)累计涨幅达119.09%,显著跑赢标普500的99.23%和纳斯达克的104.70%。分年度看:

  • 2021年:金融板块涨幅最大,达34.28%,受益于经济复苏和利率上升预期
  • 2022年:全线下跌,金融板块跌13.48%,表现优于纳斯达克的-33.89%
  • 2023年:科技股反弹,纳斯达克暴涨44.52%,金融板块仅涨9.56%
  • 2024-2025年:金融板块持续跑赢,反映出在利率环境变化下的韧性

华尔街主要投资银行对年底前的市场保持相对乐观:

  • 高盛:将标普500年末目标上调至6,800点,较当前水平约有2%上涨空间,预计2026年达到6,900点
  • 摩根大通:预测标普500年末在6,000-6,500点区间,保持谨慎立场
  • BMO资本:目标7,000点,为最乐观预测之一
  • 摩根士丹利:预计标普500年末6,500点,但警告若中美贸易紧张升级可能回调11%

分析师普遍认为第三季度8%的盈利增长(如能实现将是连续第九个季度增长)为市场提供支撑。美联储降息预期、AI驱动的科技股持续增长以及企业盈利韧性是主要看涨理由。

然而,市场也面临风险:标普500当前市盈率为22.8倍,高于5年均值19.9倍和10年均值18.6倍。此外,市值高度集中在少数AI巨头,约40%集中在10只超级股票,估值拉伸留下的容错空间有限。

AI相关公司将继续主导市场表现,但增长速度预计将有所放缓:

2025财年营收达1,305亿美元,同比增长114%,第四季度营收393亿美元。2026财年第一季度营收441亿美元,同比增长69%(增速有所放缓)。Blackwell架构第四季度贡献110亿美元收入,被称为”英伟达史上最快产品增长”。市场预期2026财年营收约1,988亿美元,每股收益4.32美元。尽管增长放缓,英伟达在AI芯片市场仍保持约80%市场份额。

2025财年第四季度Azure营收首次突破750亿美元年化规模,同比增长39%。公司预计2026财年第一季度资本支出达创纪录的300亿美元用于AI基础设施建设。Intelligent Cloud部门预计增长25-26%,Azure调整后增长37%。微软Copilot AI工具月活用户突破1亿。分析师预期微软有望成为首家市值达5万亿美元的公司。

谷歌云第二季度营收136亿美元,同比增长32%,运营利润率20.7%。估计GCP(基础设施部分)增速接近40%。AWS第二季度营收309亿美元,增长17.5%,但受供应限制约束。Anthropic成为AWS重要客户,AWS正在建设超过1吉瓦的数据中心容量支持AI需求。

关键转折点在于,分析师预测2026年云计算资本支出增速将大幅放缓。高盛预计增速从2025年的54%降至26%,摩根士丹利预计降至16%,Evercore预计18%。这主要由于折旧成本上升和投资回报压力增大。其中,亚马逊和谷歌预计资本支出增长放缓最多(约11%),而Meta预计保持42%的高增长。

全球AI市场预计从2025年的2,942亿美元增长至2032年的1.77万亿美元,年复合增长率29.2%。这为长期增长提供了坚实基础,但短期内投资者需关注资本支出放缓对AI基础设施股票估值的影响。

大型银行在2025年第三季度表现强劲,交易和投资银行业务成为主要增长驱动力。然而,美联储持续降息可能压缩净息差,影响传统贷款业务盈利能力。银行CEO普遍对前景保持谨慎,提及关税不确定性、地缘政治风险和消费者信贷质量等担忧。

尽管AI主题仍是长期增长引擎,投资者应注意:

  1. 估值已被大幅拉高,容错空间有限
  2. 资本支出增速放缓可能引发估值重估
  3. 市场过度集中于少数巨头存在系统性风险

分散化投资和关注非巨头AI受益者(如AMD、Palantir、云服务提供商)可能更为审慎。

中美贸易紧张、美国政府关闭、通胀持续、以及经济增长放缓等因素可能引发市场波动。第四季度通常面临季节性波动加剧,投资者应保持警惕。

历史数据清晰表明,银行股财报季与美股大盘具有显著正相关性,强劲的银行业绩往往为市场提供支撑。2025年10月银行财报再次全面超预期,印证了金融板块在当前经济环境下的韧性。

展望未来一个季度,标普500和纳斯达克可能维持温和上涨态势,但上涨空间受限于高估值和宏观不确定性。AI板块将继续引领市场,但增长速度和资本支出将出现放缓迹象,投资者需要更加精选个股,避免盲目追高估值过高的AI巨头。

金融板块在过去5年跑赢大盘,但2026年面临利率下行周期的挑战。投资组合应保持平衡,结合周期性金融股和成长性AI股票,同时密切关注企业盈利质量和估值合理性。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

ChatGPT 怎么帮小白产品经理把界面做得更人性化?

场景复盘:你做了一款手机 App,需要扫描周围的 BLE 设备。办公室/病房/工位上都是同一型号,名字还都一样。扫描结果“刷刷刷”往下跳,用户刚想点就被顶走了——产品经理直呼抓狂。

这篇文章不讲底层协议细节,而是教你用 ChatGPT 做一名“AI 交互搭子”:把复杂的技术约束翻译成听得懂、做得出、测得动的界面方案。


1)先和 ChatGPT 对齐“技术边界”,再决定 UI 方案

Section titled “1)先和 ChatGPT 对齐“技术边界”,再决定 UI 方案”

在 BLE 扫描这件事上,有几个会直接影响设计的事实:

  • 广播包(Advertising)里包含的可用信息:如设备(本地)名、服务 UUID、厂家自定义数据(Manufacturer Data)、Tx Power 等,可用来区分设备与做筛选。这些都是从“广播数据结构”里读出来的能力。
  • iOS 看不到设备 MAC 地址(为隐私),App 拿到的是 CBPeripheral.identifier 这样的 UUID,且并不保证永久稳定;因此不要把“展示/记忆 MAC 地址”写进跨平台方案。可改用广播中的短码/厂家数据做区分标识。
  • Android 侧可以用 ScanFilter 和 ScanSettings 做“预过滤/分批回调”(如按服务 UUID、Manufacturer Data 过滤,并用 setReportDelay 批量派发),能显著降低 UI 抖动。

有了这些“边界条件”,ChatGPT 才能给出靠谱且跨平台的交互建议,而不是纸上谈兵。


2)把“经常点不中”拆成三个可落地的 UX 问题

Section titled “2)把“经常点不中”拆成三个可落地的 UX 问题”

A. 识别难:同名设备太多,我要点“哪一台”

Section titled “A. 识别难:同名设备太多,我要点“哪一台””

解决思路:为每台设备生成“人眼可区分”的短标签

  • 要硬件同学在广播名或 Manufacturer Data 里加短码(如末 4 位序列号/生产批次 + 校验),App 把它“提炼”到列表副标题:设备名 · 短码 3K7F。这是 BLE 广播数据的典型用途。
  • iOS 无法展示 MAC:用广播短码 / 服务特征组合来当“区别因子”,别把 MAC 写进产品需求。

B. 列表抖:一刷新就顶走,光标跟不上手指

Section titled “B. 列表抖:一刷新就顶走,光标跟不上手指”

解决思路:让“数据变化”和“界面变化”解耦

  • 批量派发:Android 端开启 ScanSettings.Builder#setReportDelay(xxx),把 N 条变化“打包”给 UI,一次性 Diff 更新,减少“条目位移”。
  • 冻结可交互区:用户长按/进入“多选模式”时,冻结排序与位移,只更新条目内的轻量字段(如 RSSI 数字),待用户完成操作后再合并刷新。这符合“避免刷新打断用户任务”的 UX 原则。

C. 决策慢:一屏太乱,我需要先“缩小范围”

Section titled “C. 决策慢:一屏太乱,我需要先“缩小范围””

解决思路:把“过滤条件”前置到触手可及

  • Filter/Assist Chips(筛选/辅助芯片)放在列表上方,一键开关“只看最近用过”“只看强信号”“只看可连接/目标服务”。这类小而轻的组件专为快速筛选而生。
  • 筛选/排序要贴合意图——别让筛选导致列表跳来跳去,影响定位。NN/g 专门建议避免筛选引起的“视图跳跃”。

3)ChatGPT 给小白 PM 的“界面方案包”

Section titled “3)ChatGPT 给小白 PM 的“界面方案包””

你可以把下面这套丢给 ChatGPT 继续润色文案、生成原型图(描述即可),或让它输出组件清单/验收点清单。

(1)列表信息架构(List Item Anatomy)

Section titled “(1)列表信息架构(List Item Anatomy)”
  • 主标题设备名(若同名则加批号/型号)
  • 副标题短码 · 服务概览(如 3K7F · Battery, UpdateSvc
  • 右侧信息RSSI(用于“靠近哪台就点哪台”的心智,若需距离指示可仅作强/中/弱分级,避免误导)
  • 状态徽标(Badge)最近使用 / 新设备(降低选择成本)——用 MD3 的小徽标或小 Chip 呈现。
  • 只看最近使用只看强信号(> -70 dBm)、只看可连接只看目标服务
  • 交互策略:切换时稳定视口,尽量不改变用户当前关注的条目位置。

(3)排序与分组(避免“字母排序陷阱”)

Section titled “(3)排序与分组(避免“字母排序陷阱”)”
  • 默认:按“最近交互时间”倒序(用户心智:刚操作过的最靠前)
  • 备选:分组为 最近使用 / 新设备,组内再按 RSSI 或上次看到的时间。NN/g 也提醒:字母排序通常不是最佳答案。
  • 开启 Android 批量回调 + 列表 Diff 更新,用户长按/进入多选时冻结排序;只在条目内“轻更新”(如 RSSI 数字变更)。
  • Android:可用 MAC(仅在平台暴露时)或广播短码;
  • iOS:使用 CBPeripheral.identifier + 广播短码/服务特征;不要承诺“显示/记忆 MAC”。

4)可直接抄用的文案与命名(中英 & 字段名)

Section titled “4)可直接抄用的文案与命名(中英 & 字段名)”

分组标题(UI 文案)

  • 最近使用过的设备 / Recently Used Devices
  • 新设备 / New Devices

这两个词既人性化,又和“倒序 + 筛选”的逻辑一致。

筛选 Chips(UI 文案)

  • 只看最近使用 / Recently used
  • 只看强信号(>-70 dBm)/ Strong signal only
  • 只看可连接 / Connectable only
  • 只看目标服务 / Target service only

接口/字段(snake_case)

{
"recently_used_devices": [...],
"new_devices": [...],
"filters": {
"recently_used": true,
"rssi_threshold_dbm": -70,
"connectable_only": true,
"service_uuid_includes": ["..."]
}
}

5)让 ChatGPT 继续帮你把“方案 → 产物”

Section titled “5)让 ChatGPT 继续帮你把“方案 → 产物””

你可以把上面的“需求要点 + 组件清单”贴给 ChatGPT,让它一次性生成:

  • 原型描述(供设计稿参考):每个列表项的信息层级、芯片交互、空状态文案;
  • 工程落地清单:Android ScanFilter/ScanSettings 配置(含 setReportDelay 示例)、iOS CoreBluetooth 扫描与 identifier 使用注意事项;
  • 验收用例:当设备 30+、RSSI 跳变、筛选叠加时是否仍可“稳定点中”。

6)总结:技术边界先知晓,交互方案更有效

Section titled “6)总结:技术边界先知晓,交互方案更有效”
  • 充分利用广播数据来“识别设备”,别在 iOS 侧执念 MAC。
  • 批量派发 + 冻结排序缓解“列表抖动”。
  • 筛选/排序做成“贴合意图”的轻控件(Chips),把“最近使用/新设备”显性化,减少用户选择成本。

当你把这些约束和模式丢给 ChatGPT,它就能像一个随叫随到的“资深交互顾问”,把工程可实现用户好理解两端接起来,帮你把“点不中”这件小事,变成一次体验升级的大机会。

Claude Code 2.0.17 上新:Haiku 4.5 接管执行,Plan 用 Sonnet,速度与成本都下来了

今天的更新,对 Claude Code 写代码的人太友好了。

Claude Haiku 4.5 上线,便宜还更快;Plan 模式默认用 Sonnet 规划,执行切 Haiku。 实际体验?项目跑起来更顺,钱包也不那么疼了。官方定价与定位、以及这次在 Claude Code 里的联动,都能佐证这点。

Haiku 4.5:$1 / $5(输入/输出,每百万tokens),面向实时、低延迟任务,针对代码、子代理协作、电脑操作等场景做了优化。和今年 5 月的 Sonnet 4 相比,速度翻倍有余、成本约三分之一,但在很多编码任务上给到“近前沿”的表现。

为什么说“更省钱”?你可以对比下同梯队的定价:

  • Sonnet 4.5:$3 / $15(输入/输出)。
  • Opus 4.1:$15 / $75(输入/输出)。

这意味着,把一些不需要“最强脑力”的执行环节交给 Haiku 4.5,账单能立刻瘦身,而且响应更跟手。对需要批量跑 agent、对接服务端、或在 IDE 里频繁调用的团队来说,性价比非常明显。

小结:Haiku 4.5 = 接近 Sonnet 4 的编码力 + 更快速度 + 三分之一价格。这不是“凑合用的小模型”,而是“能落地的大杀器”。

亮点二:Plan 用 Sonnet,执行切 Haiku(2.0.17 的默认联动)

Section titled “亮点二:Plan 用 Sonnet,执行切 Haiku(2.0.17 的默认联动)”

这次 Claude Code 2.0.17 的细节很关键: **在 Plan 模式下,默认用 Sonnet 规划;到执行阶段自动切换 Haiku 来落地。**这和我们在终端/VS Code 里的真实工作流正好契合:重推理给 Sonnet,批量实现交给 Haiku。

  • 版本侧证:VS Code 扩展已到 2.0.17,伴随 10 月更新上架。
  • 官方基调:Claude Code 的主力仍由 Sonnet 4.5 驱动,负责长任务与复杂规划;Haiku 4.5 则以更快更省的姿态补上执行位。

这种“规划/执行分层”的设计,和此前“高级模型负责 Plan、次一级模型负责实现”的思路一脉相承,只是这次把 Haiku 4.5 换上了更能打的位置。

真实感受:Opus 太强,也太贵;Sonnet 稳;Haiku 现在能顶

Section titled “真实感受:Opus 太强,也太贵;Sonnet 稳;Haiku 现在能顶”

做过几次大活之后,我的感受更直接:

  • Opus:开脑洞、跨栈架构、深度检索,稳得离谱。**但账单真的顶不住。**一旦把执行也交给它,涌现出来的是结果,也是心跳。
  • Sonnet 4.5:现在是 Claude 家“最好用的编码大脑”。Plan 模式下让它思考,策略、步骤、风险提示都在线。
  • Haiku 4.5执行位的 MVP。跑 agent 子任务、开并行、写样板、搬文件、过测试,全都又快又省。写前端 scaffold、批量重命名、生成 fixtures 这种工作量,它几乎“不带喘”。

一句话:**昂贵的“思考”,用 Sonnet;大量的“手脚”,交给 Haiku。**你的速度会上去,成本会下来,稳定性也更可控。

上手建议(给忙碌的工程团队)

Section titled “上手建议(给忙碌的工程团队)”
  • 保持“Plan→Exec”分层:把难题拆清楚,再并行下发子任务,Haiku 4.5 扛执行。
  • 多用并行与子代理:让多个 Haiku 4.5 并跑,主代理用 Sonnet 4.5 协调。
  • 成本可视化:看 API usage,统计 Haiku/Sonnet/Opus 的调用占比,拉一个冲刺周期的对账单。
  • 场景切换:实时聊天助手、客服工单、低延迟编排,优先 Haiku 4.5;复杂改造、跨仓库大手术,Plan 交给 Sonnet 4.5。

这波更新没搞花活,就是把“好用+省钱”落实到日常开发流。 Plan 用 Sonnet,执行切 Haiku。代码动得快,钱也花得明白。

你怎么看?有没有哪种任务,Haiku 4.5 一上阵就立刻见效?欢迎在评论区分享你的实测。

用 Claude Code 做“面向文档编程”+ RSpec BDD,把 Rails 新功能几分钟搞定


有没有过这种痛:设备一分钟内连着上报好几条状态,数据库一片“信息噪音”? 今天聊个通用实战:在 Rails 里,把短时间内的重复上报合并为一条“黄金记录”

我会用 Claude Code 的“面向文档编程”思路起手,从一页文档→自动生成 BDD 场景→RSpec 验证→最小实现→回到文档沉淀。整套闭环,高速、稳、可追溯。关于 Claude Code 的定位与最佳实践,你也能在官方文档里找到清晰路线图。


我们的“公共版本”需求(已脱敏)

Section titled “我们的“公共版本”需求(已脱敏)”

业务背景(通用) 一个“智能健身手环”在 1 分钟内可能上报多条心率/状态。为了避免冗余,我们要:

  • 在一个可配置的时间窗(默认 1 分钟)内,按设备和类型,合并多条为一条
  • 以最新记录为准(同窗内的最后一条);
  • 写入统一工作记录表,保证幂等,并留下合并轨迹(便于审计与回溯)。

面向文档编程(Document-Driven) 把上面的说明放进一页“功能说明文档”,它既是产品协议、也是验收标准,后面直接产出 BDD 场景与测试。 这个方法和 “Specification by Example(示例化规格)/ATDD/BDD” 一脉相承——示例就是唯一可信的“真相源”


Claude Code + BDD:从文档到可执行的“验收剧本”

Section titled “Claude Code + BDD:从文档到可执行的“验收剧本””

为什么用 Claude Code 它是“会主动拉取上下文”的终端内编码副驾,能把代码、文档、依赖、脚手架串起来,把想法快速变成项目结构与可运行原型。官方也给了不少上手心法,比如如何优化上下文、如何组织仓库让智能体“读懂”你的需求。

通用提示词模板(可直接贴给 Claude Code)

角色:高级 Rails 工程师+测试教练 目标:实现“设备上报合并”为通用能力 产出: 1)根据下述文档,生成 RSpec(Rails+Capybara/请求/服务层)BDD 场景与边界用例; 2)给出最小实现骨架(服务对象、查询、事务、幂等策略); 3)生成回滚与审计日志建议; 4)把所有假设写回文档“开放问题”区; 附:功能说明文档(粘贴上面的“公共版本”需求)

为什么是 RSpec + BDD RSpec 天生面向行为与可读性,测试也是文档;Rails 官方测试指南也强调不同层级测试的分工。配合 Capybara/请求规范,既能做 API 行为验收,也能做系统级流。


用户故事

  • 作为数据平台,我希望在 1 分钟内,同一设备、同一记录类型的多条上报合并为一条,以最后一条为准,这样查询清爽、指标准确。

关键场景

  • 同窗合并:t=00:10、00:40 上报 → 保存 1 条,内容取 00:40。
  • 跨窗不合并:t=00:10、01:15 上报 → 保存 2 条。
  • 幂等写入:重复请求不会产生重复合并结果。
  • 审计可追溯:保留合并源 ID 与时间窗参数。

小技巧:把这些示例放进文档/Feature 文件,让它既是讨论载体也是自动化测试的蓝本。


spec/services/record_merger_spec.rb
RSpec.describe RecordMerger do
let(:device_id) { "device-123" }
let(:window) { 1.minute }
it "merges multiple records within window, keeps the latest" do
create(:work_status, device_id:, recorded_at: Time.current - 40.seconds, payload: { hr: 85 })
create(:work_status, device_id:, recorded_at: Time.current - 10.seconds, payload: { hr: 92 })
result = described_class.call(device_id:, record_type: :work_status, window:)
expect(result.payload[:hr]).to eq(92)
expect(WorkStatus.where(device_id:).count).to eq(1)
end
it "does not merge across windows" do
create(:work_status, device_id:, recorded_at: Time.current - 75.seconds)
create(:work_status, device_id:, recorded_at: Time.current - 10.seconds)
described_class.call(device_id:, record_type: :work_status, window:)
expect(WorkStatus.where(device_id:).count).to eq(2)
end
end

规范参考:RSpec/Capybara 的特性测试写法与依赖约束。


Rails 最小实现清单(思路导图)

Section titled “Rails 最小实现清单(思路导图)”
  • 入口:服务对象 RecordMerger.call(device_id:, record_type:, window:)

  • 查询:同设备+同类型+recorded_at 落在“自然时间窗”的记录

  • 合并策略

    • recorded_at 最大的那条为主数据
    • 其余作为“来源集合”写入 merged_from: [ids...]
  • 幂等与并发

    • 按设备+窗口做应用级互斥(如 with_advisory_lock
    • 关键字段加唯一索引(设备+窗口起点,或幂等键)
  • 审计

    • 记录 merge_window_secmerged_countmerged_from
    • 重要场景写 event log 用于追踪与回放

想做系统级 E2E,直接加 系统测试/请求测试 覆盖接口输入输出;Rails 官方指南对层级测试有清晰边界。


让 AI 真正加速:工程化用法清单

Section titled “让 AI 真正加速:工程化用法清单”
  • 把文档放在仓库根目录,命名统一,便于 Claude Code自动抓取上下文。
  • 一次只推进一个“微目标”:先让“同窗合并”绿灯,再扩展幂等、审计。
  • 频繁回写文档:新增边界条件、发现的陷阱都要沉淀到“开放问题/决策记录”。
  • 备份与里程碑:长会话偶有上下文压缩,里程碑时切分 Session+打 Tag,并做好本地快照。行业经验也提醒我们:AI 是强力电动工具,你仍然是工匠

行业侧反馈也在强化这条路:企业版全面引入 Claude Code,长上下文模型持续增强,大型代码库分析更稳。


交付物长这样(团队落地模板)

Section titled “交付物长这样(团队落地模板)”

1)一页功能文档(背景、目标、范围、术语、示例、开放问题) 2)RSpec 套件(服务层+请求/系统测试,含边界与回归) 3)服务对象 + 索引/锁(最小可用) 4)事件日志与仪表盘(合并命中率、节省存储、查询耗时变化)

价值可量化:文档就是规范;测试就是验收;日志就是运营复盘。 迭代更丝滑:新增“2 分钟窗”或“按类型分窗”——只需加示例 → 跑测试 → 小改实现。


面向文档编程 + BDD,不是“多写文档”,而是把文档变成可执行的产品契约。 配合 Claude Code,你把“想法→测试→实现→复盘”这条链路,按小时计。团队协作更顺、交付更稳,读者看代码就像读故事。

**你在团队里会怎样落地这个合并能力?**有没有更猛的幂等键设计?欢迎在评论区聊聊。

解密"摩根大通美国安全指数":39家公司板块前景、机会与风险

美国与中国的博弈、全球能源转型和供应链重构,使得一些关乎国家安全的关键行业受到前所未有的关注。近期**摩根士丹利(大摩)**提出的”美国安全指数”精选了39家上市公司,覆盖核能铀矿、电池储能、稀土战略金属和锂资源四大板块。据称这些公司横跨能源安全、关键矿产供应链、国防科技等领域,被视为美国推动本土资源与科技自主的缩影。本文将系统分析这四大板块的行业背景、国家战略角色、供需现状和未来前景,并结合宏观环境和政策趋势,从投资角度探讨其机会与风险。

行业背景与战略角色: 核能作为清洁基载能源,在美国电力结构中占比约20%。铀是核电站与核武的燃料,对国家能源和国防安全至关重要。然而美国的铀供应长期依赖进口,2023年美国核电站所用铀浓缩料有99%依靠进口,仅0.05百万磅来自国内生产。过去十年由于价格低迷,美国铀矿开采几近停滞,造成对海外供应(特别是俄罗斯、哈萨克斯坦等)产生高度依赖。地缘紧张下,这种局面被视为战略隐患。2024年美国立法禁止自俄进口浓缩铀(2024年8月起生效,2028年前有限豁免),以摆脱对”不可靠供应商”的依赖。正如美国参议院能源委员会所言,美国目前缺乏完整铀燃料生产能力,过度依赖俄罗斯的铀供应已对能源安全构成威胁。

供需现状与发展前景: 全球核能正在出现复苏苗头,多个国家重新投资新一代核电站,推动铀需求上升。经历多年供应过剩后,铀市场近年供需趋紧,价格回升。美国政府近年投入巨资重振核燃料产业——能源部获得了27亿美元拨款用于重启国内铀提炼和浓缩设施。美国还成立战略铀储备,直接采购本土矿商产品。除了传统压水堆领域,小型模块化反应堆(SMR)等先进核技术也在兴起,未来有望扩大铀需求。美国能源部已与初创核企签约采购高浓缩铀燃料(HALEU),并支持离心浓缩企业如Centrus Energy (LEU)建设产能。在此背景下,铀矿企业迎来重要机遇:本土铀产量已开始恢复性增长,2024年Q3全美铀产量达12万磅,比上一季度增加24%。未来随着国内矿山重启和新项目上线,美国有望部分削减对进口的依赖。不过短期看,美国每年3200万磅的铀需求量巨大,在进口禁令和地缘风险下,如何弥补俄产铀空缺将是挑战(可通过加大从加拿大、澳大利亚等盟友进口并提速本土项目来缓解)。

代表企业与投资分析: 摩根士丹利指数所含核能铀矿公司包括美国能源燃料公司Energy Fuels (UUUU)、加拿大铀业巨头Cameco (CCJ)、铀矿开发商NexGen Energy (NXE)等。这些企业直接受益于铀价上涨和美国政策扶持。Cameco作为全球最大铀供应商之一,资源雄厚且与美国和盟国关系紧密,是相对稳健的行业龙头。Energy Fuels等美国本土矿商则在政策利好下重启产能,并拓展稀土提取等新业务,属于高增长潜力股。投资者需注意铀矿板块的周期性和波动性:铀价和核电发展政策是关键驱动。在美国推动核燃料自主的大趋势下,中长期基本面向好。但短期风险在于:若核电复兴不及预期或宏观衰退压制能源需求,铀价可能回调;另外小型矿企普遍尚未盈利、现金流脆弱,炒作游资可能放大股价波动。建议关注拥有产量和合同在手的龙头(如Cameco)以降低风险,而对Exploration类纯概念股保持谨慎,控制仓位。

行业背景与战略角色: 电池是新能源汽车和可再生能源发展的核心。随着全球电动汽车(EV)销量屡创新高——预计2025年全球电动车销量将超2000万辆,占汽车销量的四分之一——动力电池需求近年呈指数级增长。同时,为了平衡风能太阳能等间歇性能源,大规模电网储能市场迅速兴起,对电池技术提出巨大需求。当前全球电池产业由中日韩主导,中国企业在锂电池产能和技术上占据压倒性优势。美国意识到这一供应链受制于人的软肋,将电池制造提升到战略高度:2022年通过的《通胀削减法案(IRA)》提供丰厚税收抵扣,鼓励在美建设电池工厂和材料设施。结果是美国本土电池投资大爆发——截至2023年中,已宣布的美国电池产能到2030年将达1.2太瓦时(TWh),比IRA前增加了近70%。这意味着美国有望从目前不到全球10%的电池产量份额大幅提升,从而降低对亚洲供应的依赖。

供需现状与发展前景: 据贝恩咨询报告预测,全球电池需求将从2023年的约1000 GWh猛增至2030年的4100 GWh,增幅达4倍。驱动力除了乘用车电气化,还有商用车、电动工具以及电网侧储能等多元化应用。国际能源署(IEA)估计目前全球用于EV和储能的电池年产值约1200亿美元,2030年有望接近5000亿美元。美国在需求侧同样增长迅猛:不仅特斯拉等领军车企带动锂电池出货,数据中心等新兴领域也成为储能生力军。值得一提的是,几乎所有未来电力需求增量(预计95%)将靠光伏和风电满足,这离不开大规模电池储能来平抑波动。Fastmarkets分析指出,2017年以来全球数据中心用电每年增长12%,这些中心正大规模安装电池备援,预计到2030年仅数据中心就可能占据三分之一储能市场需求。美国各州新能源项目蓬勃推进,储能装机节节攀升。在供应端,IRA法案提供每千瓦时电池35美元的生产补贴,吸引LG、松下等外资合资建厂,以及本土初创公司扩产。然而短期行业也面临挑战:电池产业技术迭代快、资本开支大,部分初创企业量产进度落后;2023年由于利率上升和电动车补贴政策不确定,一些计划中的电池工厂出现延期甚至取消。总体来看,中长期需求高增长确定,但供给端可能阶段性过剩或产能利用率不均,需警惕产能过热导致的竞争加剧。

代表企业与投资分析: 电池与储能板块涵盖从整车到材料到储能解决方案的广泛公司。代表性公司包括电动车龙头特斯拉(TSLA),新兴储能企业Eos能源企业(EOSE)、电池制造商Microvast微容(MVST),以及电池材料回收及提炼公司American Battery Technology (ABAT)等。特斯拉作为行业领军,不仅生产电动车,也在美国本土建造超级工厂自制电池(4680电芯),并涉足家庭与电网储能业务,其在美国电池版图中地位举足轻重。不过特斯拉当前市值高企,投资者需评估其估值是否透支未来增长。EOSE主营创新锌基电池储能系统,受益于美国电网储能爆发式增长,且已获得能源部贷款支持,成长空间大但仍处于亏损阶段,属于高风险高弹性品种。Microvast原本业务遍及中美,在美建厂拿到联邦补助,但因早期中国背景一度被取消资助,反映出地缘因素对企业的影响。整体而言,该板块公司享有明确政策红利:IRA补贴降低生产成本超过30%,还有电动车购车补贴要求电池材料本地化等刺激需求。长期成长性方面,看好拥有技术和规模优势的企业(如特斯拉)以及拿下大额订单、产能逐步释放的二线厂商。但需要警惕炒作风险和估值泡沫:部分储能概念股因故事动人股价曾被爆炒,而商业化落地可能需要多年。投资者在布局时应区分稳健龙头与早期概念:高波动成长股(如大部分电池初创)潜力大但不确定性高,稳健布局股(如已有盈利的材料龙头)增长相对温和但胜在确定性。组合中可根据风险偏好适度平衡两者比例。

稀土与战略金属:工业维生素与国防命脉

Section titled “稀土与战略金属:工业维生素与国防命脉”

行业背景与战略角色: “稀土”指17种元素,被称为现代工业的维生素,广泛用于高性能永磁体(电动车马达、风电涡轮)、航空电子、导弹制导、芯片制造等。战略金属则包括锑、钴、钛、钨等对国防或高科技关键的材料。美国国防部多次警告,稀土等关键矿物对尖端武器系统不可或缺,如F-35战机、潜艇、导弹和无人机所需部件均离不开稀土。但现实是,美国对这些矿物高度依赖中国:中国开采了全球至少60%的稀土并加工了约90%的稀土产品;2020-2023年美国进口的稀土化合物和金属有70%来自中国。此外,中国还是锑(用于防弹合金、弹药引信等)、石墨(电池负极材料)、钨(穿甲弹和刀具)等诸多关键矿产的主要供应者。这种高度集中供应链被视为美国国家安全的软肋。今年(2025年)中国进一步收紧稀土及稀土磁体出口管制,要求含微量重稀土的产品出口需申报用途,引发各国神经紧绷。分析人士指出,北京此举意在提醒华府:中国愿意将稀土供应作为博弈筹码。美国对此强烈反应,不仅官员强调减少对华依赖”已刻不容缓”,还祭出关税威胁和加大资源投资作为反制。

供需现状与发展前景: 全球稀土需求近年来随电动车和清洁能源激增(如每辆电动车和风机均需用到大量永磁稀土)。但供应端短期内增量有限,主要矿山仍集中在中国和少数国家。若主要出口国实施限制,可能出现供应缺口和价格剧烈波动。美国政府已在多条战线行动:五角大楼斥资扶持本土项目,例如资助MP材料公司在美建设稀土分离厂,资助澳大利亚Lynas公司在德州建重稀土加工设施等。此外还动用《国防生产法》资金支持锂、石墨、镍、锑等矿的开发和冶炼。2024年8月中国限制锑品出口后,美国国防物流局迅速扩大采购计划,拟以2.45亿美元向美国锑业公司(UAMY)采购锑金属,此规模约相当于美国一年进口量的四分之三。同时,战略储备扩容势在必行:2025年10月报道称五角大楼启动100亿美元级别的关键矿物储备计划,以减少对华依赖。该计划不仅囊括稀土,也扩展到钴、钽、铟等此前储备较少的金属。中长期看,全球稀土供需格局或逐步走向多元:澳大利亚、加拿大等国有多个新矿项目在2025-2030年投产;深海采矿(如The Metals Company计划从太平洋结核提取镍钴)也可能贡献新供给。不过新项目普遍面临环保审批难、成本高的问题,一旦商品价格回落,投资动力或不足。因此短期内中国地位难以撼动,西方国家只能通过合作盟友、政府扶持来部分填补缺口。地缘政治风险将长期存在——正如专家所言,“美中经济关系无法简单脱钩,双方仍相互交织”。这意味着稀土等领域供应链重构将是一个曲折拉锯的过程。

代表企业与投资分析: 稀土与战略金属板块公司多属于资源开采或材料加工领域,包括MP Materials(MP)、USA Rare Earth(USAR)、美国锑业(UAMY)、Ivanhoe Electric(IE)等。MP Materials拥有美国唯一在产稀土矿(加州山口矿),是美国稀土振兴的核心企业,已与通用汽车合作建设磁体厂并获得国防部资助,在整个板块中具备相对成熟的营收和盈利,是中长期具有成长性的标的。USA Rare Earth掌控着德州Round Top稀土矿藏(含多种重稀土和锂等),因其资源战略价值在近期成功上市并受到市场追捧,但公司尚未正式投产,属于政策红利受益者和概念炒作集中点,股价波动剧烈需要注意估值泡沫风险。美国锑业则是北美少有的锑生产商,本身规模小但因拿下五角大楼合同而地位特殊。锑作为重要军工原料,未来年需求增长有限但政府可能维持采购保障,其股价更多受政策消息驱动。总体来说,该板块企业大多处于成长初期或复苏阶段,基本面存在较大不确定性,炒作风险相对较高。投资者应关注哪些企业真正能够兑现产能、签署长期供货协议。一些公司可能借国家安全主题获得超额估值,需防范”一哄而起、一哄而散”的情况。建议优先选择已有产出或确定性项目的公司,并密切留意政策动态:因为政策风向直接决定这些公司的命运,如禁令、关税或政府合约等都可能使个股短期剧烈波动。此外,在整个资源类板块投资还应留意大宗商品价格周期和美元通胀走势——当美联储货币政策收紧、大宗商品价格下行时,小市值资源股往往首当其冲下跌,这是投资高弹性品种需要权衡的风险收益比。

锂资源:新能源汽车的”白色石油”

Section titled “锂资源:新能源汽车的”白色石油””

行业背景与战略角色: 锂被誉为新能源时代的”白色石油”,是制造锂离子电池不可或缺的原材料。随着电动车和储能蓬勃发展,锂已上升为全球争夺的战略资源。美国将锂列入关键矿物清单,并视其为实现电动车供应链自主的关键一环。遗憾的是,美国锂资源禀赋一般,现今国内仅有一座在产锂矿(内华达Silver Peak卤水矿),远不能满足需求。美国所需锂材料大部分依赖从南美(智利、阿根廷)和澳大利亚等进口矿石,再经中国精炼后获取。据USGS数据,2022年美国对锂化合物的对外依存度超过50%。一旦国际关系紧张或出口受限,美国电动车产业将面临断供风险。因此近年美国政府大力支持本土锂项目:例如提供贷款担保给Lithium Americas公司在内华达开发Thacker Pass锂矿,鼓励初创企业研发从粘土、地热卤水中提锂的新技术等。同时通过IRA规定,电动车购车补贴需使用一定比例美国或自由贸易伙伴生产的电池关键矿物。这些措施凸显锂在国家新能源战略中的地位。可以说,在”去碳化”与”大国博弈”的双重背景下,锂扮演了保障交通电气化和能源安全的双重角色。

供需现状与发展前景: 过去几年锂市场经历了过山车行情:电动车销量激增引发锂化合物价格在2021-2022年飙涨数倍,全球矿企竞相扩产。2023年起由于供应增长赶超需求,锂价又大幅回落。据Fastmarkets统计,2024年全球锂矿供应预计增长22%,主要来自中国、澳大利亚、南美和非洲新矿投放,而需求虽保持强劲但一度跟不上供应增速,市场出现阶段性过剩。尽管短期供大于求令价格承压,但长期前景依然向好:全球锂消费2024年达到22万吨LCE,同比增长29%,其中电动车电池用锂预计未来每年增长12%直至2030。若以12%的年复合增速计算,2030年锂需求量将比目前扩大近三倍以上。这一需求增长主要来自电动汽车(包括电动重卡、商用车)以及储能、电动工具等领域。应对需求,各国都在开发新供应:澳洲和南美盐湖扩产最快,非洲多个硬岩锂矿也在未来几年投产,预计2030年非洲将贡献全球18%的硬岩锂。美国的Thacker Pass、Arkansas地热卤水等项目有望在2026-2030逐步上线。但锂供应也有隐忧:一方面,矿业投资需数年回本且环保要求高,美国本土项目进展缓慢(例如Thacker Pass环评诉讼拖延多年);另一方面,锂提炼高度集中在中国,中国锂精炼能力成本仅约每吨8000美元,远低于北美2万美元以上。这意味着即使美国有矿石,也可能需要依赖海外(特别是中国)加工才能使用。为改变这一局面,必须投入巨资建设本土化学品提炼厂,同时解决环保和社区阻力。因此,锂行业的供应链重塑将是一个长期过程,短期波动在所难免。投资者还需关注技术变革:未来固态电池、钠离子电池等新技术若取得突破,可能改变对锂的需求格局。但权威机构预测2030年前锂离子电池仍将占据主导,锂作为关键元素的地位难以撼动。

代表企业与投资分析: 锂资源板块内既有上游矿业公司,也有中游加工企业。典型公司如全球最大锂生产商雅宝(Albemarle, ALB)、美加两地运营的锂美洲公司(Lithium Americas, LAC)、新兴矿企西格玛锂业(Sigma Lithium, SGML)等。雅宝是锂行业龙头,拥有智利盐湖和澳洲矿山权益,技术和成本领先,并计划在美国本土建精炼厂。其业务成熟、现金流稳健,相对属于稳健布局型标的。但需注意雅宝作为大宗化工企业,盈利对锂价高度敏感,牛市中利润暴增、熊市中利润下滑,估值随锂价波动明显。锂美洲公司专注开发美洲新资源:其在内华达Thacker Pass项目是全美储量最大黏土锂矿,已获建造许可并获得通用汽车巨额投资和政府贷款支持,被视为美国锂自主的重要支点。LAC计划2026年投产,未来数年处于投入期,当前估值更多反映对其资源价值的预期。投资者应关注项目进度和成本控制,一旦投产顺利,公司有潜力由开发阶段转为高速成长的新供应商。Sigma锂业则在巴西运营高品位锂矿,已开始试生产,是少数即将产生正现金流的新秀。但其股价也曾因被传”特斯拉收购”而大涨大跌,体现炒作风险。总体看,锂矿板块在经历前期狂热后,当前估值有所消化,具备中长期配置价值。然而投资需区分企业阶段:有产能的龙头(如雅宝)抗风险能力强,但增长相对有限;开发期公司弹性大,但失败风险也高。应结合自身风险承受力进行权衡。如果看好电动车电池长期趋势,可以采取**“核心+卫星”**策略:核心持有稳健龙头获取行业平均收益,卫星配置小部分高弹性品种博取超额收益。同时注意锂价周期,低位布局、避免在价格峰值时盲目追高,以降低估值泡沫带来的回调风险。

宏观背景与策略考量:供应链重构下的投资机遇

Section titled “宏观背景与策略考量:供应链重构下的投资机遇”

上述板块的兴起离不开宏观环境的塑造。首先,中美战略博弈愈演愈烈,美国高度警惕在关键领域受制于人,力推供应链”去风险”和本土制造。这不仅是经济问题,更被上升为国家安全议题。摩根大通CEO杰米·戴蒙直言:“美国过度依赖不可靠的供应链获取国家安全所需的重要矿物和产品,这一点已痛切地显现”。因此我们看到美国政府频频动用工业政策工具:巨额补贴、关税壁垒、投资审核、出口管制等,以重塑关键行业生态。在能源转型方面,美国和西方承诺的碳中和目标需要庞大的新能源基础设施做支撑,带来对锂、钴、镍、稀土等前所未有的需求增量,这些金属俨然成为绿电时代的战略资源。与此同时,地缘政治风险频发(贸易战、战事冲突等)放大了供应的不确定性,各国纷纷以国家安全名义强化资源管控,例如中国近年多次限制关键矿物出口、美国则通过《国防授权法》等立法确保资源优先供应本国。这些动态都强化了市场对相关产业的长期看好预期。其次,全球供应链重构和”友岸外包”趋势明显。美国通过联盟体系拉拢矿产资源丰富的盟友(如澳加、非洲部分国家),共同建立去风险的供应网络。例如美日欧与加拿大成立”关键矿物安全伙伴关系”,美国也投入资金帮助非洲和拉美开采(但面临当地不稳定和中资竞争)。这预示未来原料供应格局将更分散,区域合作投资机会增加。另外,宏观经济因素对这些板块影响也不容忽视:通胀与货币政策方面,高通胀往往推升大宗商品价格并提高资源类企业收益,但高利率环境又可能提高新项目融资成本、压低高增长公司估值。近期美国加息周期令部分新能源公司的股价承压,但从长线看,若关键矿产出现结构性短缺,其实物价值有望战胜货币因素影响。因此对于投资者而言,需要综合研判宏观周期和产业趋势,把握进入时点。例如在经济下行、市场情绪悲观时逢低布局具政策支撑的优质标的,往往是不错的策略。

投资者导向:成长与风险的权衡

Section titled “投资者导向:成长与风险的权衡”

综合以上分析,可以看出”美国安全指数”覆盖的39家公司中,不乏具备中长期成长性的潜力股,也存在借主题炒作的概念股。投资者应如何甄别并把握其中机会?以下是几点导向:

政策红利受益者: 美国政府的产业政策为这些公司提供了追风口的顺风车。凡是拿到政府补贴、订单或战略支持的企业,其业绩确定性相对提高。例如获得国防部合同的美国锑业、得到能源部贷款的Eos能源、享受税惠的本土电池厂商等,都有政策”兜底”一定程度保障。投资者应密切关注政策动态,顺势而为布局受益标的。但要注意政策红利往往已部分反映在股价中,需评估估值合理性。

中长期成长股: 这类公司通常拥有核心资源或技术,市场空间大,能够在5-10年维度持续增长。例如拥有全球级资源的雅宝、MP Materials,具有技术和品牌优势的特斯拉等,它们基本面扎实,预计将随着行业扩张而壮大。对于此类成长股,短期波动不改长趋势,可考虑逢低逐步建仓,长期持有。

高波动概念股: 部分公司尚无稳定收入,在概念炒作中涨幅巨大,如某些探索阶段矿企或技术路径尚未成熟的电池新创。这类高波动股可能蕴含极高弹性,但投资如同”风险投资”,要有可能归零的心理准备。投资者若参与,宜控制仓位,并设定止损止盈策略,切勿重仓赌单一故事。

估值泡沫风险: 由于热点板块资金追捧,一些公司股价已包含乐观预期。要提防行业过热时的估值泡沫。衡量标准可以是市净率、市销率是否畸高,相对同业是否失衡,以及对未来盈利预测是否过于理想。如果发现基本面跟不上股价涨幅,应谨慎对待,必要时获利了结。

组合配置与分散: 面对不确定性,将鸡蛋放在多个篮子是明智的。在新能源、安全主题投资中,不妨采取”核心-卫星”组合:核心仓位配置龙头稳健股获取稳定收益,卫星仓位少量布局高增长高风险股以博取超额收益。这种搭配可以在控制整体波动的同时,享受主题行情的红利。

科普与认知: 普通投资者在参与这些新兴领域时,要做好知识储备。理解基本概念如稀土、锂辉石、电池储能技术路线等,有助于判断新闻事件对股价的实际影响。本篇已经针对一些术语进行了通俗解释,如将稀土比作”工业维生素”、锂称为”白色石油”等,帮助读者建立直观认识。在投资前,不妨多查阅资料、了解公司财报,做到心中有数再行动。

综上,“美国安全指数”反映了当今大国竞争和能源变革下的投资主线:从矿产资源独立到尖端科技自研。这一主题既有国家战略的加持,也伴随市场投机的噪音。对于普通投资者来说,机会诱人但风险同样不小。理性分析基本面、追踪政策走向、分散投资和长期视角,是参与这些板块的关键。只有这样,才能在服务国家安全与把握财富增值之间取得平衡。

下表总结了上述板块中具有代表性的部分公司及其所属领域的核心看点,供读者参考:

公司名称所属领域战略地位与业务重点风险因素投资观点(中长期)
Cameco (CCJ)核能铀矿全球最大铀矿商之一,加美重要盟友供应源,长期供货合同稳定;在美英核电燃料市场占关键份额铀价波动;资源集中在加国和哈萨克斯坦,地缘风险行业龙头稳健,抗风险较强,适合作为核能板块核心配置
Energy Fuels (UUUU)核能铀矿美国本土铀矿领军企业,运营多个怀俄明和德州铀项目,受益美战略铀储备收购;拓展稀土提炼业务,打造双主业规模小盈利不稳,需资金投入扩大产能;商品价格低迷时现金流承压政策受益明显,中长期具成长潜力,但波动大,适合小仓位参与
Tesla (TSLA)电池与储能全球电动车龙头,在美建大型电池厂,布局储能产品;技术和品牌优势突出,引领行业创新估值较高承载高增长预期;汽车行业竞争加剧可能压缩利润长期前景向好,但需容忍股价波动。可长期持有,逢低布局
Eos Energy (EOSE)电池与储能美国新型储能电池厂商,主打安全长寿命的锌基电池,契合电网储能需求;获DOE贷款支持,加速产能扩张尚未盈利,量产爬坡存在执行风险;市场认可度需时间验证新能源储能前沿企业,弹性大但高风险。看好可小注布局,谨慎观望业绩落实
MP Materials (MP)稀土与战略金属拥有美唯一稀土矿山(Mountain Pass),获政府资金建分离和磁材设施;稀土产品对接国防和电动车产业稀土精矿目前仍需中国加工,产业链不完整;稀土价格和政策管制风险美国稀土振兴基石企业,中长期价值突出。适合长期持有,享受产业完善红利
USA Rare Earth (USAR)稀土与战略金属开发德州重稀土矿床,资源丰富含多重关键元素;承载美国重稀土供应希望,上市后受资本追捧尚处开发阶段无营收,后续融资需求大;项目技术和环保挑战战略题材浓厚,但商业化存不确定。适合激进投资者小仓位博弈,谨防泡沫
Albemarle (ALB)锂资源全球顶级锂生产商,资源遍布多国,技术领先;积极扩产并计划在美建加工,确保供应链安全盈利高度依赖锂价,周期波动大;海外项目政治风险(如智利国策变化)行业龙头基本面强健,享受锂长期需求红利。估值合理时可分批配置
Lithium Americas (LAC)锂资源拥有北美最大黏土锂矿Thacker Pass,获通用汽车6.5亿美元投资;亦涉足阿根廷盐湖项目矿山建设周期长,资本开支高;黏土提锂工艺商业化存在不确定性美国锂供应新秀,成长性佳但短期无收益。看好前景,可少量布局耐心持有

通过以上分析和表格总结,希望为广大读者揭开”大摩美国安全指数”背后的投资逻辑。在全球竞相争夺资源与技术自主的大潮中,普通投资者既可分享时代机遇,也需练就火眼金睛、理性应对市场波动。从长远看,国家战略所指引的方向往往也是产业发展的方向,把握好这些方向,有望在支持国家安全的同时实现个人财富的稳健增值。

注:以上观点仅供参考,不构成投资建议。股市有风险,投资需谨慎。

Oracle携手AMD:AI时代股价走势的展望与风险

10月14日,Oracle(甲骨文)和AMD宣布将联手构建超大规模AI超级集群:Oracle云基础设施(OCI)将在2026年第三季度开始部署50,000块AMD Instinct MI450 GPU,并在2027年及以后继续扩容。这将使Oracle成为首个采用AMD最新GPU、大规模对外提供AI算力的超大规模云厂商。据发布会信息,每台MI450 GPU配备高达432GB的HBM4显存,内存带宽达20TB/s,使其可在全部显存中容纳比前代大50%的模型。

Oracle此举意在满足下一代AI模型对算力的爆炸性需求——“随着AI模型规模超越现有集群极限,大规模AI算力需求正加速增长”。通过与AMD多年来的合作(早在2024年OCI已提供AMD MI300X等GPU服务),Oracle希望借助开放架构和最新硬件,为企业客户提供高性能、可扩展的AI训练和推理平台。

这一合作不仅是技术层面的里程碑,更被市场视为AI浪潮下双方抱团抢占先机的战略动作。Oracle云业务近年来将AI视为增长引擎,CEO Safra Catz预期本财年Oracle云基础设施销售额同比激增77%至180亿美元,并预计未来四年这一数字可能攀升至1,440亿美元之巨。正是在这样的”AI追赶赛”背景下,Oracle选择与AMD加深绑定,提前布局下一代AI基础设施。这背后既有巨大的机遇,也伴随着相应的挑战和风险,需要深入分析。

GPU市场格局:英伟达独大,AMD奋起直追

Section titled “GPU市场格局:英伟达独大,AMD奋起直追”

当前AI加速芯片市场中,英伟达(Nvidia)占据压倒性主导地位,提供了全球90%以上高性能AI GPU。谷歌、亚马逊、微软等主要云服务商的AI训练也几乎清一色采用英伟达GPU及CUDA软件生态。面对英伟达的垄断地位,业界开始寻求第二供应源和开放替代方案:这为AMD等竞争对手带来突破契机。

AMD近年来大力投入数据中心GPU研发,其Instinct系列(MI250、MI300X等)已在部分超算和云端试水,但生态和性能曾与英伟达存在差距。此次即将推出的MI450系列GPU在内存容量和带宽上有重大升级,配合开放的ROCm软件栈,旨在为客户提供对抗英伟达H100/H200的高性能且更开放的选择。

除了AMD,其他芯片玩家也在觊觎AI算力市场:**博通(Broadcom)**近期与OpenAI宣布合作开发定制AI加速器,受此消息刺激博通股价单日大涨近10%。英特尔(Intel)则通过收购Habana推出Gaudi系列AI芯片,并计划于未来推出新架构GPU,主打性价比优势来挑战英伟达。在OpenAI等AI巨头频繁牵手芯片厂商的背景下,AI硬件正呈现多元化竞争局面。

值得一提的是,价格和供应也是影响竞争格局的重要因素。目前一块英伟达旗舰H100 GPU市场价高达3-4万美元,曾因供不应求甚至被炒到4万美元以上。AMD据报道正以更具竞争力的价格向大客户供应MI300系列(约每片1万美元左右)。Intel的Gaudi芯片也打出**“价格约为英伟达GPU一半”的卖点。大型云厂商出于成本考虑,有动力引入价格更低的替代芯片。这意味着AMD有机会以性价比打开市场,但也可能面临利润率的压力**。

总体来看,在GPU赛道上,短期内英伟达依然独占鳌头,但AMD正借助技术进步和产业联盟奋起直追,其市场地位有望在未来几年得到提升。

云服务竞争:Oracle的机遇与挑战

Section titled “云服务竞争:Oracle的机遇与挑战”

在云计算领域,Oracle属于后来者,相较AWS(亚马逊)、Azure(微软)和GCP(谷歌)三大巨头的市占率仍有不小差距。然而,AI浪潮为Oracle提供了一次弯道超车的良机:许多企业客户对生成式AI、大模型训练等需求激增,却苦于主流云的GPU资源供给紧张、成本高昂或单一来源受限。在此背景下,Oracle大胆投资AMD GPU超级集群,意在差异化竞争:一方面,以开放标准和更优价格性能比吸引客户;另一方面,争取”不想把鸡蛋放在一家篮子里”的多云策略客户。

Oracle的这一**“All in AI”**策略已初见成效。2023年以来,Oracle多次签下超大订单:截至今年9月,Oracle已拿下4份数十亿美元级别的AI云合同。市场更传闻OpenAI与Oracle签署了一份总额高达3000亿美元的五年云服务协议,据称将共建4.5GW数据中心算力,是有史以来最大的云合同之一。虽然该消息未有正式文件披露(仍属”据报道”状态),但已令投资者对Oracle前景异常振奋——今年9月传出这一消息时,Oracle股价盘后飙涨25%。

即便抛开个别超大单,Oracle云业务整体也因AI需求而步入高增长轨道:本财年Oracle已将云基础设施增长预期从70%上调至77%。Oracle创始人Larry Ellison更表示”AI改变一切”,预计AI相关服务将**“显著提升未来数年云需求”。在应用层,Oracle计划推出”AI数据库”**等创新产品,将OpenAI的ChatGPT、Anthropic的Claude、谷歌Gemini等模型直接集成到Oracle数据库,让企业用户方便调用。这种软硬件结合的AI解决方案是Oracle的传统优势领域(其企业软件客户基础庞大),有望与底层算力建设形成协同效应。

然而,Oracle也面临不小的挑战。首先,三大云巨头并未停下脚步:AWS自研Trainium、Inferentia芯片并继续大量采购英伟达GPU;Azure绑定OpenAI并可能寻求AMD等合作;谷歌有自家TPU和云端英伟达方案。巨头们资金雄厚、生态完善,Oracle要撼动其领先地位并不容易。其次,大举采购50,000块GPU意味着巨额资本开支和技术风险:如果未来AI需求增速放缓或客户不买账,Oracle可能面对产能过剩的窘境。

因此,可以说Oracle在AI云上的进击是一场高风险高回报的豪赌:成功的话将大幅提升其云版图和股价;反之则可能因为投入沉重而业绩承压。

短期(6个月)展望:热度提升与消化整固

Section titled “短期(6个月)展望:热度提升与消化整固”

在未来6个月内(至2026年上半年),Oracle和AMD的股价走势很大程度上取决于市场情绪和短期业绩表现。目前两家公司股价都已因AI题材大幅上涨:截至10月中旬,AMD年内涨幅约85%,逼近历史高点;Oracle年内上涨约80%。尤其是10月初AMD宣布与OpenAI合作后,股价单日暴涨24%,创近九年来最大单日涨幅,市值飙增逾633亿美元。这表明投资者对AMD进军AI领域的期望值骤然提升。

短期来看,这种情绪驱动的上涨需要时间消化。一方面,Oracle-AMD合作等利好已经部分反映在股价中,市场可能进入观望期,等待实际业绩验证。另一方面,短期宏观因素(如利率、经济数据)仍可能带来波动。

未来两个季度,AMD的财报若显示数据中心部门业绩提振(例如MI300X销量增长),可能进一步强化AI故事,对股价形成支撑。但需注意,在MI450真正量产交付前,AMD营收未必有大幅提升,股价主要靠预期驱动,短线波动性加大。

总之,未来半年两家公司股价大概率在高位震荡,热点消息主导短期走势:新的合作宣布、产品发布或行业峰会讲话都可能引发波动。而基本面上尚未有重大业绩兑现前,投资者情绪将反复拉锯。

中期(1年)展望:兑现合作成果为股价续航

Section titled “中期(1年)展望:兑现合作成果为股价续航”

展望一年后(至2026年下半年),Oracle和AMD的合作将进入初步收获期。2026年下半年正是双方承诺的AI超级集群上线时间节点。如果一切顺利,Oracle将在Q3 2026正式向客户提供基于AMD MI450 GPU的大规模算力服务。这意味着双方前期投入开始转化为实际营收:

对AMD而言:2026年下半年开始交付的50,000块MI450 GPU,将带来可观的销售收入。同时,AMD与OpenAI的合作也将进入执行阶段——根据协议OpenAI将在2026年下半年启动首批1GW规模(约数千块)AMD GPU部署,并在随后几年扩展至6GW。AMD管理层预计,这些AI大型订单将在未来几年为公司贡献”数百亿美元新增营收”,并显著增厚每股盈利。

如果届时AMD能够顺利量产交付,兑现技术承诺,中期业绩有望出现跳变式增长。华尔街分析师也普遍看好AMD在AI领域的前景,在OpenAI合作宣布后纷纷上调目标价(部分由原先200美元提升至300美元)。因此到2026年底,随着产品落地和营收显现,AMD股价有望在高位基础上进一步攀升。

对Oracle而言:2026年下半年Oracle的AI云算力规模将大幅跃升,不仅50,000块MI450集群投入运营,Oracle自身在2024-25年推出的MI300X/MI355X云服务也会更加成熟。客户落地方面,届时或能看到Oracle签下的一些AI大单开始贡献收入。如果传闻中的OpenAI巨额合同属实,2027财年起Oracle云业绩将迎来飞跃,中期股价可能因预期提前反映。

中期主要风险在于执行和竞争:AMD的新品可能遭遇研发或生产延迟、性能不及预期等问题;Oracle面临的市场竞争可能加剧,导致客户拓展不如预期。总体而言,2026年前后将是Oracle证明”押注AI云”战略成败的关键窗口。

长期(3年)展望:行业格局重塑与不确定性

Section titled “长期(3年)展望:行业格局重塑与不确定性”

拉长到三年后的2028年左右,AI、GPU和云计算市场或将出现新的格局。在这一时间尺度上,Oracle与AMD的前景既充满巨大机遇,也伴随不少不确定性:

AMD长期机遇:如果一系列战略合作顺利推进,到2027-2028年AMD有望跻身AI芯片市场主要玩家,市场份额显著提升。AMD的数据中心GPU业务规模可能从目前的边缘地位成长为数十亿美元级别,成为公司新的增长支柱。更乐观的情形下,AMD或许能拿下AI加速器市场20-30%以上的份额,从英伟达手中争得一席之地。

AMD长期风险:最大的挑战仍是技术和竞争:AI加速芯片领域每年迭代快速,英伟达预计在2025-2026年推出的Blackwell GPU、2030年前可能实现GPU+CPU+光互连的重大创新,技术领先地位并未拱手相让。AMD必须持续高额研发投入,在架构、软件生态上追平甚至超越对手,难度不小。

Oracle长期机遇:如果Oracle成功抓住这波机遇,到2028年其云业务规模和行业口碑都有望实现飞跃式提升。一个理想情形是:Oracle凭借与OpenAI等超级客户的深度合作,成为AI云算力的顶级提供商之一,市场份额较目前大幅提高。

Oracle长期风险:市场竞争演化——三年后AI云领域可能更加两极分化,要么形成寡头垄断,要么进入红海价格战。如果AWS、Azure在AI算力上进一步强化,Oracle可能仍难撼动其主导地位。

主要机遇

  1. AI需求爆发带来的广阔增长空间
  2. 重磅合作推动市占率提升
  3. 多元化生态崛起的契机
  4. 双方股票基本面向好

主要风险

  1. 激烈的竞争风险
  2. 执行风险
  3. 宏观和政策风险
  4. 泡沫风险

综合以上分析,Oracle和AMD在AI时代的前景可谓机遇与风险并存。两家公司携手布局下一代AI基础设施,抓住了当前行业的一股重大趋势:算力需求爆炸式增长、客户寻求多元选择。这一战略有可能在未来数年为双方带来跨越式的业绩增长和市值提升。

从6个月的短期看,二级市场对AI题材的热情仍是推动股价的主要动力,但波动也在所难免;1年左右的中期,合作项目开始落地将成为验证预期的关键,股价表现取决于双方能否兑现承诺、巩固市场地位;放眼3年长期,如果AI产业保持高速发展、Oracle与AMD双双成功卡位,那么其股价有潜力继续跑赢大盘,实现可观涨幅。

作为投资者,应密切关注未来双方在技术研发、客户拓展以及行业竞争动态方面的进展。在AI大潮中,Oracle和AMD已然站上风口,下一步是展翅高飞,还是迎风波折,有赖于它们在这场技术变革竞赛中的表现。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

一段简洁提示词,让 Claude Code 同步改 Web、App、后端(以“会话自动锁屏时长”为例)

你写一段短到离谱的提示词,智能代理就把 Web(TypeScript)、App(Flutter)和 API(Rails)一起改完:加功能、设权限、配多语言,还能起迁移、跑校验。关键是好写、好复用

空口不信?往下看。


  • Claude Code 已上“插件”:把斜杠命令、子代理、MCP 服务器、生命周期 hooks 打包成一个可一键安装的插件。团队能把“多端联改”做成标准流水线
  • MCP(Model Context Protocol)相当于给 AI 插了 USB-C:把 IDE/代理和你的仓库、数据库、工具接起来,读写信息、执行动作都更标准。
  • 支持远程 MCP:很多能力直接连云端服务,用鉴权就能配,企业里多仓库多环境更省事
  • 官方还给了代理式编码最佳实践,强调结构化目标 + 清单式需求写法,落地更稳。
  • 新模型/生态也在推一把,比如 Sonnet 4.5 对复杂代理和“用电脑”场景更强,配合插件/MCP,从提示到补丁更顺滑。

用“会话自动锁屏时长”做替身场景

Section titled “用“会话自动锁屏时长”做替身场景”

我们要在“安全设置”里加一个功能:会话自动锁屏时长(Session Auto-Lock)

  • 两个选项:标准(2 分钟)严格(30 秒)
  • 仅授权用户能查看/修改
  • Web 管理台、App 设置页、API 一起改
  • 中英双语 i18n

这个功能足够通用,不涉及任何敏感业务代码。

给 Claude Code 的结构化提示词(可直接复用)

Section titled “给 Claude Code 的结构化提示词(可直接复用)”

把下面这段当“工单”。短句、动词开头、每段 2~4 行。让代理少追问,多产出。

Task: Add "Session Auto-Lock Duration" to Security Settings across Web (TypeScript), App (Flutter), and API (Rails).
Context:
- Two options: standard=2 minutes, strict=30 seconds. Default=standard.
- Only authorized users can view/modify this setting.
Requirements:
1) Web Admin:
- Add a dropdown field under Security Settings.
- Options: Standard / Strict. Bind permission key: session_auto_lock.
- Localize: en_US, zh_CN.
2) Mobile App:
- Add the same dropdown in Security Settings screen.
- Read/write to user/device security config. Hide/disable if unauthorized.
- Localize: en_US, zh_CN.
3) API:
- DB migration: add string column "session_auto_lock_duration" with default "standard".
- Model enum: STANDARD/STRICT/ALL_OPTIONS.
- Permission registration for "session_auto_lock".
- Validation: only allow ALL_OPTIONS; return 403 if unauthorized.
4) Copy:
- en_US: "Standard: 2 minutes", "Strict: 30 seconds"
- zh_CN: "标准(2分钟)", "严格(30秒)"
5) Review checklist:
- Permission gating works in Web/App/API.
- Default renders as "standard".
- i18n strings appear correctly.
- Ship diffs per repo with tests passing.

这种“落点明确 + 清单化”的提示,在代理式编码里效果最好;Claude Code 官方也推荐结构化指令,一次性降低反复沟通成本。

  • 安全设置页新增一个 Session Auto-Lock 下拉。

  • 绑定权限键 session_auto_lock;无权限隐藏或禁用。

  • i18n:

    • en_US:Standard / Strict
    • zh_CN:标准(2分钟)/ 严格(30秒)
  • “安全”页加入同名下拉组件。
  • 读取/保存到安全配置;无权限则置灰或不显示。
  • 文案同 Web,保持一致。
  • 迁移:session_auto_lock_duration,默认 standard
  • 模型常量:STANDARD / STRICT / ALL_OPTIONS
  • 权限注册:session_auto_lock;写接口做白名单校验;无权限 403。

这些动作可通过插件 + MCP连起来:代理读写多仓库文件、生成迁移、跑测试,再开 PR。

准备

  • 给 Web/App/API 各配一个轻代理或把步骤封装成插件的命令。
  • 接上本地/远程 MCP,绑定仓库与 CI。

执行

  • 用上面的“工单式提示词”触发。
  • 代理按清单生成补丁、迁移、i18n、权限注册;自动起 MR/PR。

复核

  • CI 跑 Lint/Tests;失败交给代理回修。
  • 人眼只看关键差异与验收项。
  • 需要合规/审计?插件里加操作留痕与回滚脚本。 -(注:近期生态对安全和可治理越来越重视,代理工具也在完善规则与用量治理。)

  • 指令别写散。短句 + 动词 + 名词落点,成功率更高。
  • 权限键、默认值、白名单选项写死,别交给模型“自由发挥”。
  • 文案直接给最终字符串,省一次来回。
  • 远程 MCP 很爽,但记得鉴权与最小权限,分环境分角色。
  • 把这段提示词沉到团队的指令库/插件,以后只换“功能名 + 枚举值”就能复用。

把复杂交给标准,把简单留给人。 一段结构化提示词 + 插件化代理 + MCP, 就能把“跨端、跨仓、跨语言”的机械活压扁。 你盯需求定义与最后拍板,其他交给机器跑。

你觉得呢?这个“会话自动锁屏时长”的替身方案适合你们项目吗?

Claude Code 也会“偷懒”:当你的 etc. 变成“只做前三条”

**一句话结论:**AI 写代码再快,也拯救不了模糊的需求。要想让 Claude Code 真正省心,关键是把“etc.”拆成清单、把验收变成剧本、把测试交给机器跑


你有没有写过这样的需求: “首页展示设备关键信息(电源、音量等)”。

结果提测时,AI 只实现了前三项。“等”就真的没了。 不是 AI 不聪明,是我们给它的信号不够明确。Claude Code 也会“偷懒”——当你的指令模糊时,它会合理但不完整地收敛实现范围。这并非坏事,这是人机协作的边界提醒

顺带一提,Anthropic 刚把 Haiku 升到 4.5,更便宜、更快、编码表现接近 Sonnet,在 Copilot 里也开始可用;速度更快,但**“等”还是不会自动补齐**。


现象:等号左边写得少,等号右边自然变小

Section titled “现象:等号左边写得少,等号右边自然变小”
  • 你写了“电源、音量、亮度等”。
  • Claude Code 读到的是明确的三项 + 不明确的“等”
  • 结果:代码、自动化测试、文档,全部只覆盖前三项

不是 AI “偷工减料”。是 AI 遵循“可验证优先”:明确的点能写代码和测试,不明确的点就会被跳过。这在研究与行业报告里被反复观察到——AI 助手在不完整或含糊的需求下更容易遗漏功能,即使它能更快地给出代码。


可复制的解决方案:别让“等”上生产

Section titled “可复制的解决方案:别让“等”上生产”

下面这套流程,适用于任何 App、后台、Web 项目。拿走即用。

把名词写成表格,给每一项加“状态、来源、展示规则、空值策略、异常策略”。示例字段:

  • 名称:Power / Volume / Brightness …
  • 值域:On/Off;0–100…
  • 数据源:本地缓存 / 后端接口 / 蓝牙…
  • 展示:图标、标签、单位
  • 空值:显示“—”还是灰显
  • 异常:超时、断连、权限被拒绝时的占位

这样做的价值:AI 能完整生成 UI + 校验 + 空态 + 错误处理,而不是只画出“看起来像对的三个组件”。

参考:用 Gherkin/BDD 写验收标准,把行为写成“Given-When-Then”的剧本,可读也可测。


二、把验收从“口头对”升级为“可执行”

Section titled “二、把验收从“口头对”升级为“可执行””

把清单转成 Gherkin 场景,再由 AI 产出自动化测试脚本:

Feature: Device key info panel
Scenario Outline: Render each key info item
Given the device exposes "<name>" with value "<value>"
When I open the home page
Then I should see "<label>" and formatted "<value>"
Examples:
| name | value | label |
| Power | On | Power |
| Volume | 70 | Volume |
| Brightness | 40 | Brightness|
| … | … | … |

研究表明:让 LLM 先从用户故事生成 Gherkin 场景,再转成可执行测试(如 Cypress),能显著提升覆盖率和可控性。


三、把“复用”做在数据层,少踩“重复实现”的坑

Section titled “三、把“复用”做在数据层,少踩“重复实现”的坑”

别在多个模块里各写一份相似的 infos()抽成可复用的数据映射与渲染器:一份 schema,到处消费

  • keyInfo.schema.ts:字段、值域、格式化、空态策略
  • keyInfo.adapter.ts:从不同数据源(API、蓝牙、缓存)统一适配
  • KeyInfoPanel.tsx纯展示,不碰业务逻辑
  • keyInfo.spec.ts:跑全量表格驱动测试,新增一项=自动多测一项

结果:新增“电池温度”这种后续项,也能一处加 schema,处处生效。这就是**“等”的工程化**。


四、把“AI 生成”放进持续集成

Section titled “四、把“AI 生成”放进持续集成”
  • PR 阶段自动跑:类型检查、静态规则、单元 + 验收测试
  • 门禁:若清单项数 ≠ 测试覆盖项数,直接拒绝合并。
  • 加上安全与合规扫描,防止AI 生成带来隐性风险

单测告诉你“哪里坏了”,验收测告诉你“是不是完整可用”。两者缺一不可


五、善用 Claude Code 最新能力,但不要把它当读心术

Section titled “五、善用 Claude Code 最新能力,但不要把它当读心术”
  • Claude Code Plugins:把你的“清单生成、Gherkin 转脚本、覆盖率校验”打包成一键安装的工作流,团队共享即用。
  • Haiku 4.5便宜且快,适合把“清单→场景→测试”的重复体力活批量化。在 Copilot 侧也逐步可用。
  • 记住:更快 ≠ 更懂你明确性才是生产力倍增器。

速用清单(可直接贴进团队 Wiki)

Section titled “速用清单(可直接贴进团队 Wiki)”

拉齐定义

  • 把“等”拆成表格清单,每项含:值域、来源、展示、空值、异常。
  • 为每项写 1 条 Gherkin 场景

自动化

  • 用 Claude 生成 Cypress/Playwright 脚本。
  • CI 强制:清单项数 = 通过的场景数

工程化复用

  • schema + adapter + 纯展示组件。
  • 新增项 = 增 schema;测试与 UI 自动跟进

安全与质量

  • 静态扫描 + 依赖与密钥检查。
  • PR 门禁不过就不合并。

Claude Code 没有偷懒。它只是按你给的“边界”办事。 当你把模糊变成结构化,把验收变成可执行,AI 就真的成了可靠的搭档

**你觉得团队里,哪一块最容易写出“等”?你在怎么治理?**欢迎在评论区聊聊。

来都来了,GitHub Copilot CLI 公测上线

GitHub 把会“动手干活”的 Copilot 编码代理搬进了命令行,能读你仓库、理解 issue/PR,按你的确认一步步执行。装个 npm 包就能用,适合本地开发的构建/重构/调试/提 PR整套流。


我们写代码,80% 的时间都在终端。能不能把“会规划、会执行”的 AI 搬进命令行,少来回切换? GitHub 的回答是:Copilot CLI。它把 Copilot 编码代理塞进你的本地环境,先预览动作、你点头再执行,既省心又可控。

这波对“本地效率党”和“安全敏感型团队”都很友好。


直接在命令行里让 Copilot 看代码、跑指令、给解释。不用切来切去,效率直线拉满。

自然语言就能浏览仓库、搜 issue、查 PR,身份继承你现有的 GitHub 账号与套餐(Pro/Pro+/Business/Enterprise)。

不只是补全。它能规划多步任务、编辑文件、调试、发起变更。配合 GA 的 Copilot 编码代理,终端里也能跑“能执行的计划”。

内置 GitHub 的 MCP 服务器,可接入自定义 MCP,扩展到内网工具、知识库、工单系统等。

GitHub 近期已引入 GPT-5-Codex 公测,主打更强的代码理解与重构。CLI 背后的代理也能吃到这波模型红利。

关键点每一步执行前都会给你预览。不点“确认”,它不会动。


二、三步装好,2 分钟上手(真的很快)

Section titled “二、三步装好,2 分钟上手(真的很快)”
  1. 安装
Terminal window
npm install -g @github/copilot
  1. 登录(跟随交互完成 GitHub 认证)
  2. 开始使用(付费计划 Pro / Pro+ / Business / Enterprise 其一即可)

详细安装步骤与注意事项参考官方文档“Installing GitHub Copilot CLI”。


三、我日常怎么用?给你 6 个高频场景

Section titled “三、我日常怎么用?给你 6 个高频场景”

场景里的命令是示意,实际以 CLI 提示为准。

目标:10 分钟弄清目录结构与关键模块。 玩法:让 Copilot 解析项目、生成模块图、列出“高风险文件”。 收益:新人上手更快,减少走弯路。

配图建议:终端窗口 +“项目地图”小插画(2:1)。


目标:把一个 issue 变成 PR。 玩法:把 issue 文本丢给它,让它规划→修改代码→本地跑测→起分支→提交 PR 草稿,每一步你点确认。 收益:减少机械劳动,把精力留给评审。

配图建议:Issue → Plan → Code → Test → PR 的箭头流程。


目标:快速定位一个诡异报错。 玩法:让它读取日志、结合源码提出重现场景与修复建议,并生成最小复现脚本。 收益:解决“看得懂报错但不知道从哪下手”的焦虑。


目标:补足关键路径的单元测试。 玩法:让它扫描覆盖率薄弱区,草拟测试用例,拉起本地测试并自动修正小错误收益:质量门槛更稳,回归不背锅。


目标:跨模块重构、升级依赖、统一风格。 玩法:借助 GPT-5-Codex 的长链路推理,先出重构计划,再按子任务批处理,每步都可回退收益:把高风险变更拆小、可控推进。


目标:让 CLI 会用你们的 wiki/工单/构建平台。 玩法:接入自定义 MCP Server,把“查 wiki、建工单、触发流水线”都交给它。 收益:私域知识 + 私有流程联动起来,彻底减少上下文切换。


  • Copilot 编码代理(云):可开云环境、长时任务、跨仓库操作,现已 GA。
  • Copilot CLI(本地):贴着你的终端做“短平快”,更适合边写边改组合拳:云端跑重活,本地做迭代与确认,既省心又可控

  1. 从安全与审计流程起步:把“每步需确认”写进团队规范。
  2. 把常见任务模板化:如“修复 ESLint 报错、补测试、生成变更日志”。
  3. 用 MCP 接内网:先从只读接入做起,成熟后再放写权限。
  4. 模型策略:能开就开 GPT-5-Codex,重构/迁移收益更明显。

六、快速上手清单(可贴进 README)

Section titled “六、快速上手清单(可贴进 README)”
  • npm i -g @github/copilot 安装与登录
  • 在个人/组织设置里确认 Copilot 计划(Pro/Pro+/Business/Enterprise)
  • 选 1 个试点仓库:限定权限 + 开启“每步确认”
  • 先跑 3 个任务:读仓库、修一个 issue、补 1 组单测
  • 团队复盘:记录节省时间、失败案例、流程修订项
  • MCP 接入 1 个内部系统,先只读后读写

CLI 并不是又一个“花哨界面”。它把 Agent 真正落到“你每天用的地方”。 当 AI 能读懂上下文、按你确认一步步执行,开发的节奏就会变:你负责决策,它负责体力活。

你会第一个在团队里吃螃蟹吗?你觉得在哪个场景最值?评论区见。

用 Claude Code + 面向文档编程 + BDD 业务驱动测试,把华为鸿蒙 App 研发提速 3 倍

这套方法,专门解决「AI 能写代码,但不懂鸿蒙」「ArkTS 老报错」「回归测试跟不上」三大痛点。 核心是:用文档驱动 Claude Code,靠 BDD 自动化把质量兜住。


引言:别和 AI 胡扯,先把文档写好

Section titled “引言:别和 AI 胡扯,先把文档写好”

很多同学一上来就对 AI 说:“帮我做个蓝牙扫描、连接、同步时间的华为鸿蒙 App。” 结果 Claude Code 写得有模有样,一编译就全红。熟不熟 ArkTS?懂不懂 ArkUI 生命周期?测试咋回归?都没谱。

鸿蒙官方早就给出 ArkTS 编码规范ArkUI 声明式开发范式性能实践,这些是 Claude Code “学不会就老翻车”的坑位标准件 。 而 ArkTS 是 HarmonyOS 的主力语言,和 TypeScript 同宗但有自己的语义与生态,照 JS 的老习惯写,很容易踩坑 。 好消息是:Claude Code 已经支持“读仓库、编辑文件、写并运行测试、在终端执行命令”,只要把上下文喂对,它就能稳定输出工程化结果 。


一、面向文档编程:让 Claude Code 按你说的来

Section titled “一、面向文档编程:让 Claude Code 按你说的来”

目标:把需求、价值、实现、验收,一页纸说清楚;让 Claude Code 在鸿蒙语境里“按章施工”。

1)写「一页纸」需求(可直接贴进仓库 /docs/feature-xxx.md

Section titled “1)写「一页纸」需求(可直接贴进仓库 /docs/feature-xxx.md)”
  • 功能:蓝牙设备扫描 → 列表展示 → 连接 → 同步时间 → 读状态 → 发送命令 → 断开

  • 业务价值:门店导购 1 分钟完成设备初始化,减少 80% 人工失误

  • 平台:HarmonyOS NEXT,ArkTS + ArkUI;DevEco Studio 构建

  • 接口/模型:设备名以 XX 开头;连接后展示电量;发送“注入”命令回传成功标志

  • 验收标准(BDD 口吻)

    • Given 应用在首页
    • When 点击「Start Scan」,在列表看到以 XX 开头的设备并点击 Connect
    • Then 进入已连接页,看到设备名/电量;点击「Sync Time」「Refresh Status」「Send injection Command」均返回成功

ArkTS/ArkUI 的关键约束与最佳实践,记得在文档里抄要点:命名、状态管理、性能注意事项等(来自官方风格指南与状态管理指引)。把规范直接贴给 Claude Code,它会在生成时遵守这些规则 。

2)给 Claude Code 的首条系统提示(贴进 .claude/primer.md

Section titled “2)给 Claude Code 的首条系统提示(贴进 .claude/primer.md)”
  • 项目框架(ArkUI 页面结构、目录约定)
  • ArkTS 代码风格要求(变量/组件命名、可空判断、错误处理)
  • 组件清单 & 事件流(Button → 扫描 → 列表 → 连接)
  • 测试先行:先生成 BDD 场景与 ArkTS 测试桩,再补业务代码
  • 失败重试:编译错误→阅读错误→只改最小集

官方与社区都强调 以规范驱动编码,这能显著减少返工量与性能问题 。 Claude Code 本身也建议定制上下文与环境(例如忽略无关文件、给它一份专用 README/CONTRIBUTING),能明显提高命中率 。

3)把“流程说明 + 验收步骤”贴到 README

Section titled “3)把“流程说明 + 验收步骤”贴到 README”

下图是我们这次功能的人工验收步骤,用于人工核对与给 Claude Code 读上下文:

Index/Connected 手工验收说明

这段文字会被 Claude Code 当成“可执行文档”来吸收:它能先写 UI 流,再补逻辑与测试(Claude 官方宣称可“写并运行测试、编辑文件、提交代码”)。


二、BDD 业务驱动测试:把“文档”变成“可执行规范”

Section titled “二、BDD 业务驱动测试:把“文档”变成“可执行规范””

一句话:需求写成 Gherkin 场景,测试跑在 DevEco/arkXtest 框架上,测试红→AI 修→再测绿

Feature: Scan and connect device
Scenario: Find and connect device with prefix XX
Given App on Index Page
When I tap "Start Scan"
Then I should see a device starting with "XX" in the list
When I tap "Connect" on that device
Then I should be on Connected Page with name and battery shown

Gherkin/BDD 的优势是把“业务语言”直接变成可执行的规格,持续校验系统行为是否和文档一致 。

  • DevEco/arkXtest 体系:提供 单元测试 + UI 测试 + 性能测试 的统一框架;UI 测试脚本执行在单测之上,满足端到端验证需求 。
  • IDE 支持:DevEco Studio 集成了测试框架与代码测试入口,便于在真机/模拟器执行 。

一些资料还提到 HarmonyOS/ArkTS 在 NEXT 版本对测试能力升级,支持更现代的写法与参数化等技巧,可按需借鉴到你的工程模板里(以官方与权威资料为准) 。

3)示例:UI 场景测试骨架(摘自实际项目结构)

Section titled “3)示例:UI 场景测试骨架(摘自实际项目结构)”

ArkTS UI 场景测试片段

这个测试干了三件事:

  1. 若未扫描就尝试点「Start Scan」,否则写日志跳过
  2. 等待发现设备
  3. 定位包含指定前缀的设备并点击连接,断言进入已连接页

这类 UI 测试用例结构,和 arkXtest 的设计思路一致:用 API 驱动 UI 操作,统一在测试框架里收敛结果

4)把“测试红→AI 修复→再测绿”做成流水线

Section titled “4)把“测试红→AI 修复→再测绿”做成流水线”
  • Claude Code 回路:失败就把编译/运行日志贴回对话,让它最小改动修复(Claude 官方建议的“环境调优 + 上下文最小化”在这里很关键) 。
  • IDE/CI 集成:在 DevEco Studio 本地一键跑;CI 上接入真机/模拟器跑回归(参考 DevEco 测试入口与官方测试文档) 。
  • 可视化验收:把前面的人工验收步骤图放到 wiki,每个版本都跑 Gherkin + UI 测试,保证“文档即真相”。

三、落地手册:从 0 到 1 的 7 步 Checklist

Section titled “三、落地手册:从 0 到 1 的 7 步 Checklist”

Step 1|项目初始化

  • DevEco Studio 创建 ArkTS 项目;选择 ArkUI 声明式范式;确认目标 API/设备。
  • 建议拉一份 ArkTS 风格指南性能实践 入库 /guides,供人和 AI 同时参考 。

Step 2|一页纸需求

  • 写清功能、价值、接口、状态、异常、验收场景(Given/When/Then)
  • 把截图式的人工验收步骤放进 README(上文配图那段)。

Step 3|Claude Code 启动

  • .claude/primer.md/docs 作为首要上下文;限制它读取无关大文件。
  • 让它先生成测试桩 & Gherkin,再补业务代码与 ArkUI 页面 。

Step 4|ArkTS/ArkUI 编码

  • 遵守命名、组件化、状态管理约束;注意性能实践与可空/异常处理 。

Step 5|测试实现

  • 采用 arkXtest / DevEco 测试 跑单测+UI 测试;把 Gherkin 作为顶层用例描述(可在步骤定义里调用 UI 测试 API) 。

Step 6|循环修复

  • 失败日志丢给 Claude Code 进行最小修复;本地/CI 循环跑到全绿 。

Step 7|沉淀知识库

  • 把踩坑 & FAQ 记录到 /kb:如 BLE 权限、生命周期、列表性能。
  • 下一次仅需改“一页纸”和少量步骤描述,Claude Code 就能复用上下文继续生成

四、效果:质量、速度、认知,三线齐飞

Section titled “四、效果:质量、速度、认知,三线齐飞”
  • 速度:有了“文档即代码”的喂法,Claude Code 在鸿蒙项目上更稳定,减少来回猜
  • 质量:arkXtest + DevEco 测试把单测/UI/性能拉齐,回归自动化,人工只做探索式验证 。
  • 认知:规范与性能实践写进文档,人和 AI 同一套规则,新同学 1 天能上手 ArkTS/ArkUI 的基本套路 。

五、可复制模板(你可以直接拷走)

Section titled “五、可复制模板(你可以直接拷走)”
/docs
feature-ble-connect.md # 一页纸需求+验收
ui-flow.md # 界面流程与状态
/guides
arkts-style-guide.md # 摘抄+链接官方规范
performance-notes.md # ArkTS 性能实践
/tests
features/ble_connect.feature # Gherkin
ui/ble_connect.test.ets # UI 场景测试
.kb
ble-permissions.md
.claude/primer.md
  • 背景/价值
  • 约束(API/权限/设备前缀)
  • 验收场景(5~7 条 Given/When/Then)
  • 灰度/回滚策略

结语:让“文档—测试—代码”成闭环

Section titled “结语:让“文档—测试—代码”成闭环”

当你把文档写到能直接验收,Claude Code 才有可能一次就写对 ArkTS; 当你把BDD 场景跑起来,每个版本都能一键回归。 这就是我们在鸿蒙项目里稳定拿到“更快的速度 + 更稳的质量”的原因。

你觉得这套玩法还缺什么?评论区聊聊你的场景

普通人也能跑赢大盘 5:2:1 配置法 标普500+纳指100+VGT

  • 按照 5:2:1 比例配置三只美股指数基金(标普500:纳斯达克100:信息科技板块)。
  • 按计划长期持有并定期再平衡,依据资金规模、收益目标与风险承受能力动态微调。

一个成功的投资者,85%归功于正确的资产配置,10%来自于选择投资目标的功力,5%必须靠上帝的保佑。 — 威廉·夏普

长期投资遵循“大道至简”的原则:普通投资者只需要长期持有一两只美股指数基金,就足以获得良好的资产增值效果。作为美国股市市值最大的500家公司综合指数,标普500涵盖了信息科技、消费、金融、医疗健康等主要行业,被视为美国股市整体表现的晴雨表。例如“股神”沃伦·巴菲特多次力荐标普500指数基金,并在遗嘱中规划其90%的个人资产投入标普500指数基金,以此彰显对该指数长期稳健回报的信心。对于国内投资者,可通过场内基金 513500(博时标普500 ETF)进行投资。

然而,仅有标普500指数基金并非唯一选择。根据自身风险偏好,投资者还可加入纳斯达克100指数基金和信息科技板块基金(VGT),构建一个“三足鼎立”的美股指数基金组合。下面分别介绍这三类值得长期持有的指数基金,以及如何按照 5:2:1 比例进行配置。

标普500指数基金:美国股市的核心基石

Section titled “标普500指数基金:美国股市的核心基石”

标普500指数(S&P 500)由美国市值最大的500家上市公司构成,涵盖从科技、消费到能源、公用事业在内的广泛行业板块。正因其成分股多元且权重分散,标普500指数基金通常被视为投资美国股市的首选核心资产。历史统计显示,标普500指数长期年化回报约在 10% 左右,且波动相对温和,适合大多数寻求稳定增长的投资者。

  • 分散投资:覆盖 500 家公司,不依赖个别股票,充分分散非系统性风险;指数成分市值占美国股市绝大部分,等于“一键买入美国经济”。
  • 长期稳健增长:历经多次牛熊周期仍不断创出新高,长期滚动区间内取得正回报的概率高。
  • 投资大师背书:不少投资大师提倡普通人定投标普500指数基金;巴菲特长期力荐“买入并持有”。

需要注意,标普500指数基金仍会受经济周期影响出现阶段性回撤,但相比更窄基指数,其波动风险较低。对于风险承受能力一般的投资者,标普500指数基金完全可以作为终身持有的单一基金组合。国内投资者可关注 513500 这只跟踪标普500的场内基金。

纳斯达克100指数基金:科技龙头的高成长机会

Section titled “纳斯达克100指数基金:科技龙头的高成长机会”

纳斯达克100指数(Nasdaq-100)由纳斯达克交易所市值最大的100家非金融公司组成,因其科技股权重高而闻名。该指数涵盖苹果、微软、Alphabet(谷歌母公司)、亚马逊、英伟达等众多科技巨头。凭借对高增长行业的集中暴露,纳斯达克100指数过去几十年的年化总回报率显著高于标普500。

纳斯达克100指数基金的特点可以概括为:

  • 重配科技成长:信息技术等高增长板块占比高,长期收益往往优于大盘。
  • 波动性较高:高收益伴随高波动,市场下跌时回撤更剧烈(如 2000–2002 年与 2022 年阶段)。
  • 成分偏向新兴行业:多来自科技、通信服务、可选消费等领域,契合未来方向,但抗跌能力偏弱。

总的来说,纳斯达克100指数基金提供了分享美国科技龙头成长的机会。其长期收益优异但短期波动较大,适合有一定风险承受能力、能忍受净值大幅波动的投资者。国内投资者可通过嘉实纳斯达克100 ETF(场内代码 159501)投资该指数。

信息科技板块基金(VGT):把握科技行业整体红利

Section titled “信息科技板块基金(VGT):把握科技行业整体红利”

信息科技板块基金专注投资信息技术行业。以先锋集团的 Vanguard 信息科技 ETF(代码 VGT)为例:VGT 跟踪 MSCI 美国 IMI 信息科技 25/50 指数,持有 300+ 家信息科技公司股票,覆盖英伟达、苹果、微软、博通等大型科技企业及众多中小型科技公司。与纳斯达克100类似,VGT 高度集中于科技板块,但覆盖范围更广(不限于纳斯达克上市公司)。

将信息科技板块基金纳入组合,目的是获取科技行业的超额收益。过去十年里,VGT 的表现阶段性优于纳斯达克100:中小市值科技股在科技热潮中贡献了额外涨幅。不过,更高的回报伴随更高的风险。科技板块在利率上行或市场恐慌时往往首当其冲,纯科技 ETF 在波动市中净值回撤更大。2022 年科技股熊市中,VGT 最大跌幅接近 -35%,略高于同期纳指100的最大回撤。

这类基金更适合对科技前景高度看好、且个人风险承受能力较强的投资者。对于已经实现财务自由或投资经验丰富的人士,适当配置以追求更高收益未尝不可;但普通投资者若风险偏好较低,可以不配置或降低配比。

面向以上三类指数基金,一个简明的组合策略是按 5:2:1 比例配置:约 62.5% 配置标普500、25% 配置纳斯达克100、12.5% 配置信息科技板块基金。理念在于:

  • 核心持仓(约 5 成):标普500 提供稳定基础与广泛分散,获取美国经济平均增长。
  • 卫星持仓(约 2 成):纳斯达克100 增厚组合长期收益,分享大型科技成长。
  • 进取持仓(约 1 成):信息科技板块提高进攻性,在景气周期获得更大弹性。

该组合兼顾稳健与进取,可按个人情况微调。例如,保守者可降低纳指与科技基金比重(如 7:2:1 或 8:1:1),进取者可适度提高进取部分。应根据市场变化与财务目标定期再平衡,将各资产权重调回预设水平,以保持风险收益匹配。

标普500、纳斯达克100与信息科技板块基金可组成长期持有的三足组合:既有覆盖全面、稳健增长的核心基石,又有把握科技浪潮的高增长引擎。大多数投资者依据自身风险承受力采用适当比例配置,并长期坚持投资、定期平衡组合,有望获得良好的风险调整后回报,助力财富长期增值。与其频繁择时和炒作个股,不如建立简单高效的指数基金组合并长期持有,穿越牛熊。

Codex 的常用选项放到配置文件

咱把那些一长串的 CLI 选项都收进一个 config.toml,以后直接用就行。

下面是可直接粘贴的版本,已经把你给的选项排好行、加了注释(TOML 里用 # 做行注释):

~/.codex/config.toml
# All keys are top-level unless放到 [table] 里
# 注:TOML 用 # 注释,没有块注释语法
# 推理相关
model = "gpt-5-codex"
model_reasoning_effort = "high"
model_reasoning_summary = "detailed"
# 审批与执行策略
approval_policy = "never" # 跳过每步确认,自动执行
# 沙箱与网络
sandbox_mode = "danger-full-access" # 风险很高:几乎不做隔离,慎用
network_access = true # 允许联网
# Shell 环境策略
[shell_environment_policy]
inherit = "all" # 继承所有环境变量
ignore_default_excludes = false # 不忽略默认屏蔽清单

路径是 ~/.codex/config.toml

不想手写的话,用这两行创建文件并打开(按你喜欢的编辑器改 vim):

Terminal window
mkdir -p ~/.codex && vim ~/.codex/config.toml

想用 XDG 规范位置:

Terminal window
mkdir -p ~/.config/codex && vim ~/.config/codex/config.toml

TOML 有格式错误会让工具读不到。你可以用 Python 3.11+ 自带的 tomllib 做一次语法校验:

Terminal window
python - <<'PY'
import tomllib, pathlib
p = pathlib.Path.home()/'.codex'/'config.toml'
with p.open('rb') as f:
tomllib.load(f)
print('TOML OK at', p)
PY

说明:TOML 的注释必须每行用 #,没有 /* ... */ 这种块注释;键值是 key = value,表用 [table]


  • danger-full-access = 几乎不做隔离的执行环境。只在你非常确定命令来源、并且代码仓库可信的场景下启用。日常建议切回更安全的沙箱模式(如果支持)。
  • approval_policy = "never"自动执行,省心也更危险;做破坏性操作(删库、批量重命名、rm -rf)前,临时改成需要确认的策略更稳。

在 Codex 里像 Claude Code 一样用 BMAD:把多角色 AI 团队装进你的仓库

装好 Codex 与 BMAD,把 BMAD 的“多角色专家”挂到 AGENTS.md,在终端直接喊 “*agent analyst”,Codex 就能按 BMAD 的敏捷流程带你做完从需求到交付的闭环。


做项目最怕两件事:没人写清需求写了又没人照着落地。 BMAD 把“业务分析、架构、产品、开发、测试、Scrum”等角色,做成一套可版本化的 Markdown 代理。配合 Codex 的 AGENTS.md,你就像带着一支 AI 小分队在干活。

这篇就是最实用的上手路线: 1)安装 BMAD; 2)改 AGENTS.md 挂上 BMAD 角色; 3)一条提示词把 Analyst 拉进来开工。


  • Codex 读得懂 AGENTS.md,会按你的项目习惯来构建、测试、提 PR,支持本地 CLI 与 IDE。
  • BMAD 提供可复用的“Agent as Code”:每个角色都是一个 .md,自带任务、清单、模板与工作流。
  • 两者合体=“项目规则 + 多角色协作 + 可执行检查”。用起来更像一支真团队。

步骤一:安装 BMAD(3 分钟快走法)

Section titled “步骤一:安装 BMAD(3 分钟快走法)”

先保证 Node.js v20+。

在你的项目根目录运行:

Terminal window
# 推荐的一键装/升级
npx bmad-method install
# 或已安装过就:
git clone https://github.com/bmad-code-org/BMAD-METHOD
cd BMAD-METHOD
git pull
npm run install:bmad

这会把 BMAD 的核心结构与脚本落到项目里(含 .bmad-core 目录、模板与脚本),并为后续代理工作做准备。

Terminal window
npx bmad-method install
██████╗ ███╗ ███╗ █████╗ ██████╗ ███╗ ███╗███████╗████████╗██╗ ██╗ ██████╗ ██████╗
██╔══██╗████╗ ████║██╔══██╗██╔══██╗ ████╗ ████║██╔════╝╚══██╔══╝██║ ██║██╔═══██╗██╔══██╗
██████╔╝██╔████╔██║███████║██║ ██║█████╗██╔████╔██║█████╗ ██║ ███████║██║ ██║██║ ██║
██╔══██╗██║╚██╔╝██║██╔══██║██║ ██║╚════╝██║╚██╔╝██║██╔══╝ ██║ ██╔══██║██║ ██║██║ ██║
██████╔╝██║ ╚═╝ ██║██║ ██║██████╔╝ ██║ ╚═╝ ██║███████╗ ██║ ██║ ██║╚██████╔╝██████╔╝
╚═════╝ ╚═╝ ╚═╝╚═╝ ╚═╝╚═════╝ ╚═╝ ╚═╝╚══════╝ ╚═╝ ╚═╝ ╚═╝ ╚═════╝ ╚═════╝
🚀 Universal AI Agent Framework for Any Domain
Installer v4.43.1
? Enter the full path to your project directory where BMad should be installed:
? Select what to install/update (use space to select, enter to continue): BMad Agile Core System (v4.43.1) .bmad-core
📋 Document Organization Settings
Configure how your project documentation should be organized.
? Will the PRD (Product Requirements Document) be sharded into multiple files? Yes
? Will the architecture documentation be sharded into multiple files? Yes
🛠️ IDE Configuration
⚠️ IMPORTANT: This is a MULTISELECT! Use SPACEBAR to toggle each IDE!
🔸 Use arrow keys to navigate
🔸 Use SPACEBAR to select/deselect IDEs
🔸 Press ENTER when finished selecting
? Which IDE(s) do you want to configure? (Select with SPACEBAR, confirm with ENTER): Cursor, Claude Code, iFlow CLI, Windsurf, Trae, Roo Code, Kilo
Code, Cline, Gemini CLI, Qwen Code, Crush, Github Copilot, Auggie CLI (Augment Code), Codex CLI, Codex Web
🔧 GitHub Copilot Configuration
BMad works best with specific VS Code settings for optimal agent experience.
? How would you like to configure GitHub Copilot settings? Use recommended defaults (fastest setup)
📍 Auggie CLI Location Configuration
Choose where to install BMad agents for Auggie CLI access.
? Select Auggie CLI command locations: Workspace Commands (Project): Stored in repository, shared with team
? Would you like to include pre-built web bundles? (standalone files for ChatGPT, Claude, Gemini) Yes
📦 Web bundles are standalone files perfect for web AI platforms.
You can choose different teams/agents than your IDE installation.
? What web bundles would you like to include? All available bundles (agents, teams, expansion packs)
? Enter directory for web bundles: web-bundles
Analyzing installation directory... Processed 67 files with {root} replacement
Added 4 common utilities
Added 3 documentation files
Installed all web bundles to: web-bundles
Created rule: ux-expert.mdc
Created rule: sm.mdc
Created rule: qa.mdc
Created rule: po.mdc
Created rule: pm.mdc
Created rule: dev.mdc
Created rule: bmad-orchestrator.mdc
Setting up cursor integration...✓ Created rule: bmad-master.mdc
Created rule: architect.mdc
Created rule: analyst.mdc
Created Cursor rules in .cursor/rules/bmad
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created Claude Code commands for core in .claude/commands/BMad
- Agents in: .claude/commands/BMad/agents
- Tasks in: .claude/commands/BMad/tasks
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created iFlow CLI commands for core in .iflow/commands/BMad
- Agents in: .iflow/commands/BMad/agents
- Tasks in: .iflow/commands/BMad/tasks
Created workflow: ux-expert.md
Created workflow: sm.md
Created workflow: qa.md
Created workflow: po.md
Created workflow: pm.md
Created workflow: dev.md
Created workflow: bmad-orchestrator.md
Created workflow: bmad-master.md
Created workflow: architect.md
Created workflow: analyst.md
Created Windsurf workflows in .windsurf/workflows
Created rule: ux-expert.md
Created rule: sm.md
Setting up trae integration...✓ Created rule: qa.md
Created rule: po.md
Created rule: pm.md
Created rule: dev.md
Created rule: bmad-orchestrator.md
Created rule: bmad-master.md
Created rule: architect.md
Created rule: analyst.md
Added mode: bmad-ux-expert (🎨 UX Expert)
Added mode: bmad-sm (🏃 Scrum Master)
Added mode: bmad-qa (🧪 Test Architect & Quality Advisor)
Added mode: bmad-po (📝 Product Owner)
Added mode: bmad-pm (📋 Product Manager)
Added mode: bmad-dev (💻 Full Stack Developer)
Added mode: bmad-bmad-orchestrator (🎭 BMad Master Orchestrator)
Added mode: bmad-bmad-master (🧙 BMad Master Task Executor)
Added mode: bmad-architect (🏗️ Architect)
Added mode: bmad-analyst (📊 Business Analyst)
Created .roomodes file in project root
Roo Code setup complete!
Custom modes will be available when you open this project in Roo Code
Added Kilo mode: bmad-ux-expert (🎨 UX Expert)
Added Kilo mode: bmad-sm (🏃 Scrum Master)
Added Kilo mode: bmad-qa (🧪 Test Architect & Quality Advisor)
Added Kilo mode: bmad-po (📝 Product Owner)
Added Kilo mode: bmad-pm (📋 Product Manager)
Added Kilo mode: bmad-dev (💻 Full Stack Developer)
Added Kilo mode: bmad-orchestrator (🎭 BMad Master Orchestrator)
Added Kilo mode: bmad-master (🧙 BMad Master Task Executor)
Added Kilo mode: bmad-architect (🏗️ Architect)
Added Kilo mode: bmad-analyst (📊 Business Analyst)
Created .kilocodemodes file in project root
KiloCode setup complete!
Custom modes will be available when you open this project in KiloCode
Created rule: 10-ux-expert.md
Created rule: 07-sm.md
Created rule: 09-qa.md
Created rule: 06-po.md
Created rule: 03-pm.md
Created rule: 08-dev.md
Created rule: 02-bmad-orchestrator.md
Created rule: 01-bmad-master.md
Created rule: 05-architect.md
Created rule: 04-analyst.md
Created Cline rules in .clinerules
Created agent command: /bmad:agents:ux-expert
Created agent command: /bmad:agents:sm
Created agent command: /bmad:agents:qa
Created agent command: /bmad:agents:po
Created agent command: /bmad:agents:pm
Created agent command: /bmad:agents:dev
Created agent command: /bmad:agents:bmad-orchestrator
Created agent command: /bmad:agents:bmad-master
Created agent command: /bmad:agents:architect
Created agent command: /bmad:agents:analyst
Created task command: /bmad:tasks:validate-next-story
Created task command: /bmad:tasks:trace-requirements
Created task command: /bmad:tasks:test-design
Created task command: /bmad:tasks:shard-doc
Created task command: /bmad:tasks:risk-profile
Created task command: /bmad:tasks:review-story
Created task command: /bmad:tasks:qa-gate
Created task command: /bmad:tasks:nfr-assess
Created task command: /bmad:tasks:kb-mode-interaction
Created task command: /bmad:tasks:index-docs
Created task command: /bmad:tasks:generate-ai-frontend-prompt
Created task command: /bmad:tasks:facilitate-brainstorming-session
Created task command: /bmad:tasks:execute-checklist
Created task command: /bmad:tasks:document-project
Created task command: /bmad:tasks:create-next-story
Created task command: /bmad:tasks:create-doc
Created task command: /bmad:tasks:create-deep-research-prompt
Created task command: /bmad:tasks:create-brownfield-story
Created task command: /bmad:tasks:correct-course
Created task command: /bmad:tasks:brownfield-create-story
Created task command: /bmad:tasks:brownfield-create-epic
Setting up gemini integration...✓ Created task command: /bmad:tasks:apply-qa-fixes
Created task command: /bmad:tasks:advanced-elicitation
Created Gemini CLI extension in .gemini/commands/BMad/
You can now use commands like /bmad:agents:dev or /bmad:tasks:create-doc.
Added context for *ux-expert
Added context for *sm
Added context for *qa
Added context for *po
Added context for *pm
Added context for *dev
Added context for *bmad-orchestrator
Added context for *bmad-master
Added context for *architect
Added context for *analyst
Created QWEN.md in .qwen/bmad-method
Created agent command: /ux-expert
Created agent command: /sm
Created agent command: /qa
Created agent command: /po
Created agent command: /pm
Created agent command: /dev
Created agent command: /bmad-orchestrator
Created agent command: /bmad-master
Created agent command: /architect
Created agent command: /analyst
Created task command: /validate-next-story
Created task command: /trace-requirements
Created task command: /test-design
Created task command: /shard-doc
Created task command: /risk-profile
Created task command: /review-story
Created task command: /qa-gate
Created task command: /nfr-assess
Created task command: /kb-mode-interaction
Created task command: /index-docs
Created task command: /generate-ai-frontend-prompt
Created task command: /facilitate-brainstorming-session
Created task command: /execute-checklist
Created task command: /document-project
Created task command: /create-next-story
Created task command: /create-doc
Created task command: /create-deep-research-prompt
Created task command: /create-brownfield-story
Created task command: /correct-course
Created task command: /brownfield-create-story
Created task command: /brownfield-create-epic
Created task command: /apply-qa-fixes
Created task command: /advanced-elicitation
Created Crush commands for core in .crush/commands/BMad
- Agents in: .crush/commands/BMad/agents
- Tasks in: .crush/commands/BMad/tasks
Using pre-configured GitHub Copilot settings: defaults
Using recommended BMad defaults for Github Copilot settings
VS Code workspace settings configured successfully
Settings written to .vscode/settings.json:
chat.agent.enabled: true
chat.agent.maxRequests: 15
github.copilot.chat.agent.runTasks: true
chat.mcp.discovery.enabled: true
github.copilot.chat.agent.autoFix: true
chat.tools.autoApprove: false
You can modify these settings anytime in .vscode/settings.json
Created chat mode: ux-expert.chatmode.md
Created chat mode: sm.chatmode.md
Created chat mode: qa.chatmode.md
Created chat mode: po.chatmode.md
Created chat mode: pm.chatmode.md
Created chat mode: dev.chatmode.md
Created chat mode: bmad-orchestrator.chatmode.md
Created chat mode: bmad-master.chatmode.md
Created chat mode: architect.chatmode.md
Created chat mode: analyst.chatmode.md
Github Copilot setup complete!
You can now find the BMad agents in the Chat view's mode selector.
Using pre-configured Auggie CLI (Augment Code) locations: workspace
✓ Created command: ux-expert.md in Workspace Commands (Project)
✓ Created command: sm.md in Workspace Commands (Project)
✓ Created command: qa.md in Workspace Commands (Project)
✓ Created command: po.md in Workspace Commands (Project)
✓ Created command: pm.md in Workspace Commands (Project)
✓ Created command: dev.md in Workspace Commands (Project)
✓ Created command: bmad-orchestrator.md in Workspace Commands (Project)
✓ Created command: bmad-master.md in Workspace Commands (Project)
✓ Created command: architect.md in Workspace Commands (Project)
✓ Created command: analyst.md in Workspace Commands (Project)
✓ Created Auggie CLI commands in .augment/commands/bmad/
Location: Workspace Commands (Project) - Stored in your repository and shared with your team
⠼ Setting up codex integration...✓ Created/updated AGENTS.md for Codex CLI integration
Codex reads AGENTS.md automatically. Run `codex` in this project to use BMAD agents.
✓ Added npm scripts: bmad:refresh, bmad:list, bmad:validate
✓ Added .bmad-core/* to .gitignore for local-only Codex setup
✓ Created/updated AGENTS.md for Codex CLI integration
Codex reads AGENTS.md automatically. Run `codex` in this project to use BMAD agents.
✓ Updated .gitignore to include .bmad-core in commits
✔ Installation complete!
✓ BMad Method installed successfully!
🎯 Installation Summary:
✓ .bmad-core framework installed with all agents and workflows
✓ Web bundles (all bundles) installed to: web-bundles
✓ IDE rules and configurations set up for: cursor, claude-code, iflow-cli, windsurf, trae, roo, kilo, cline, gemini, qwen-code, crush, github-copilot, auggie-cli, codex, codex-web
📖 IMPORTANT: Please read the user guide at docs/user-guide.md (also installed at .bmad-core/user-guide.md)
This guide contains essential information about the BMad workflow and how to use the agents effectively.

小贴士:遇到路径报错,确认目录前面有点.bmad-core 而不是 bmad-core)。这类路径不一致是常见坑。


步骤二:在 AGENTS.md 挂上 BMAD 角色

Section titled “步骤二:在 AGENTS.md 挂上 BMAD 角色”

AGENTS.md 就是“给 AI 的 README”。位置在仓库根目录,是标准 Markdown,形式自由,写你希望代理遵循的构建/测试/风格/流程等。

Codex、Cursor、Gemini 等主流代理都会读它;你写在这里的规则,代理会按你说的做。

为了让 Codex 快速定位 BMAD 角色,在 AGENTS.md 中新增一个“BMAD Agents”小节,并放入简洁的角色映射。很多团队习惯用 YAML 片段来列出路径(便于人和工具解析),示例如下:

# BMAD Agents
agents:
- id: analyst
path: .bmad-core/agents/analyst.md
- id: architect
path: .bmad-core/agents/architect.md
- id: bmad-master
path: .bmad-core/agents/bmad-master.md
- id: bmad-orchestrator
path: .bmad-core/agents/bmad-orchestrator.md
- id: dev
path: .bmad-core/agents/dev.md
- id: pm
path: .bmad-core/agents/pm.md
- id: po
path: .bmad-core/agents/po.md
- id: qa
path: .bmad-core/agents/qa.md
- id: sm
path: .bmad-core/agents/sm.md
- id: ux-expert
path: .bmad-core/agents/ux-expert.md

说明:AGENTS.md 并不强制 YAML,它本质是 Markdown;你也可以用表格或列表写法表达同样信息。核心是让代理可靠找到这些 .md


步骤三:在 Codex 里启动 Analyst(BMAD 分析师)

Section titled “步骤三:在 Codex 里启动 Analyst(BMAD 分析师)”

CLI 两种安装二选一:

Terminal window
npm i -g @openai/codex
# 或
brew install codex

装完在项目根目录运行 codex,按提示登录 ChatGPT 账号即可开始。

进入 Codex 交互后,直接说:

*agent analyst
Hi, I’m Mary — Business Analyst.
All commands must start with *.
1. *help — Show available commands
2. *brainstorm {topic} — Facilitate structured brainstorming
3. *create-competitor-analysis — Create competitor analysis doc
4. *create-project-brief — Create project brief
5. *doc-out — Output current document
6. *elicit — Run advanced elicitation
7. *perform-market-research — Create market research doc
8. *research-prompt {topic} — Generate deep research prompt
9. *yolo — Toggle skip confirmations
10. *exit — Exit Business Analyst persona

BMAD 的 Web/IDE 工作流里,*help*analyst 是常见的入口提示与角色选择语法;把这一套“数字选项 + 任务驱动”的对话风格原样搬到 Codex,就能获得类似体验。

备忘:BMAD 的 Analyst/Architect/PM/Dev 等角色在对应的 agents/*.md 里有命令与清单;有些任务(如头脑风暴)依赖 .bmad-core/tasks/* 中的文件。路径对了,代理就能加载。


一套「从零到一」的小抄(可直接用)

Section titled “一套「从零到一」的小抄(可直接用)”

初始化

  • npx bmad-method install(或 npm run install:bmad
  • 检查 .bmad-core 是否到位、Node v20+。

配置

  • AGENTS.md 写“构建/测试/代码风格/提交流程”。
  • 加上“BMAD Agents”映射,确保各角色 .md 能被找见。

开干

  • codex,发送 *agent analyst 启动词。
  • 产出 docs/brief.md → 切 Architect 出架构稿 → Scrum Master 切故事 → Dev 执行实现 → QA 校验。

实战加速:把“检查与提 PR”也交给 Codex

Section titled “实战加速:把“检查与提 PR”也交给 Codex”

Codex 天生支持在仓库里跑命令与做代码评审(如在 PR 里 @ 它),搭配 AGENTS.md 里的测试/风格/构建说明,能把本地验证自动审查串起来。


  • 路径写错.bmad-core 少了前导点,导致加载失败 → 统一改为带点路径。
  • 指令太散:记得把“怎么构建/怎么测/代码规范/提交规则”写进 AGENTS.md,代理才会一致执行。
  • 角色太多记不住:进对话就打 *help 或在启动词里让代理用数字选项提议下一步。

BMAD 把“角色”变成可版本化的代码Codex 把“执行”变成可自动化的动作。 把两者接上,你的项目就多了一支不疲劳、可复制、对规矩永远不忘的 AI 团队。

你会把哪个项目先交给这支团队?评论区聊聊。


你会把 BMAD 的哪个角色深度定制?Analyst、Architect 还是 QA?
说说你的理由和一个必须执行的团队规则。

Claude Code 自动迁移 HarmonyOS BLE v15+ 多路扫描与连接管理

用 Claude Code 快速开发 HarmonyOS 6 蓝牙设备管理 App:蓝牙交互、ArkTS 编译修复与 TDD/BDD 实战

Section titled “用 Claude Code 快速开发 HarmonyOS 6 蓝牙设备管理 App:蓝牙交互、ArkTS 编译修复与 TDD/BDD 实战”

本文演示如何借助 Claude Code 快速完成一款面向华为 HarmonyOS 6 的蓝牙设备管理 App,覆盖典型能力:接收蓝牙广播、连接设备、设置时间、同步状态、输注、获取日志;并重点介绍 ArkTS 编译错误修复思路,以及以 TDD/BDD 为导向的测试落地。

—— 适合希望以“边写边测、快速迭代”打造 BLE 设备应用的团队。

  • 目标设备:蓝牙设备。
  • 典型指令:
    • 读取状态、同步时间、输注、读取记录。

实现文件与数据模型:

  • entry/src/main/ets/utils/BleService.ets 扫描与发现、连接、通知、命令发送等一站式封装。
  • entry/src/main/ets/utils/BleCommand.ets 指令构造(含 CRC 与长度、时间/剂量编码)。
  • entry/src/main/ets/utils/BleResponseParser.ets 响应解析。
  • entry/src/main/ets/utils/BleAdvertisingParser.ets 广播数据解析(本地名、UUID、厂商数据等)。

二、Claude Code 如何加速 ArkTS 原生开发

Section titled “二、Claude Code 如何加速 ArkTS 原生开发”
  • 代码导航与重构
    • 通过指令快速定位 BLE 相关入口、交叉引用与依赖;批量改名与接口抽取保持一致性。
  • 辅助修复 ArkTS 编译告警/错误
    • 自动指出 arkts-no-spreadunknown/any 等规则触发点,给出替换写法与类型补全建议。
  • 生成测试骨架并补充断言
    • 基于 Hypium 的单元测试、UI 集成测试样例可快速落地与扩展。

结合这些能力,可以形成“修改 → 运行测试 → 分析日志 → 修复/重构”的高频闭环,显著缩短从协议梳理到端到端可用的周期。

1. 接收蓝牙广播(扫描与解析)

Section titled “1. 接收蓝牙广播(扫描与解析)”
  • 多路径扫描(HarmonyOS API v15+):
    • 入口:entry/src/main/ets/utils/BleService.ets startScan(...)
    • 事件:BLEDeviceFind 持续上报,内部使用 BleAdvertisingParser 解析本地名、服务 UUID、厂商数据等。
  • 广播解析:entry/src/main/ets/utils/BleAdvertisingParser.ets
    • 覆盖 Flags、完整/不完整 UUID、Manufacturer Specific Data 等主流 AD 类型,便于快速判断是否为目标设备。

配套的发现服务:entry/src/main/ets/utils/BleDiscoveryService.ets 封装了发现列表、按 RSSI 排序、超时自动停止与“可信设备”缓存策略,UI 侧直接订阅状态/结果回调即可。

  • 连接与服务发现后,写入前必须“先订阅、再开通知、再读一次”:
    • 启用通知:entry/src/main/ets/utils/BleService.ets
      • gattClient.on('BLECharacteristicChange', ...) 订阅回调
      • setCharacteristicChangeNotification(..., true) 开启
      • 可选执行一次 readCharacteristicValue 以“预热”通知通道(部分设备需要)
  • 通知回调:entry/src/main/ets/utils/BleService.ets onCharacteristicChanged(...)
    • 使用小写 UUID 比对,规避不同大小写带来的遗漏
    • characteristic.characteristicValue 转为 ArrayBuffer 后分发给待处理回调或统一协议解析
  • 发送写入:entry/src/main/ets/utils/BleService.ets sendCommand(...)
    • ArkTS 禁用对象展开(no-spread),需直接修改 characteristicValue 后写入
    • 统一输出十六进制串以便排查:BleCommand.toHexString(...)
  • 指令构建:
    • 读状态 entry/src/main/ets/utils/BleCommand.ets
    • 同步时间 entry/src/main/ets/utils/BleCommand.ets
    • 输注指令 entry/src/main/ets/utils/BleCommand.ets(剂量 ×1000 转整数,小端写入)
  • 同步时间:entry/src/main/ets/utils/BleService.ets,写入 0xA7 包含年月日周时分秒,完成后走通知通道校验。
  • 读取状态:entry/src/main/ets/utils/BleService.ets → 等待通知 → 解析:entry/src/main/ets/utils/BleResponseParser.ets
    • 解析电池状态、电压/电量、剩余剂量、单次/日上限、告警位、今日用量、最大日志条数等。
  • entry/src/main/ets/utils/BleService.ets 调用 buildInjectionCommand(dose)
  • entry/src/main/ets/utils/BleCommand.ets 剂量按千分精度编码为 4 字节小端整数,满足“较大/高精度剂量”场景。
  • 建议:
    • 结合状态中的单次/日上限做前置校验,必要时分包或分次下发;
    • 关注 MTU(典型 20 字节)限制与指令长度设计。
  • 通知处理分流:entry/src/main/ets/utils/BleService.ets processReceivedData(...)
    • “ 路径调用记录解析:entry/src/main/ets/utils/BleResponseParser.ets parseRecord(...)
    • 支持注射记录与操作记录两类结构化数据。
  • 若需“按索引/类型拉取历史记录”,可在 BleCommand 中补齐 READ_RECORD_WITH_TYPE 构造(工程中已留注释模板),与上面的解析逻辑无缝对接。

文档汇总:docs/ble-arkts-fix-summary.md

  • 类属性缺失
    • connectionPromiseResolvers 未声明,需补充为 Map<string, => void>,用于连接 Promise 的外部解析。
  • arkts-no-spread
    • 写特征值时禁止对象展开,直接改 existing.characteristicValue = ...(见 BleService.ets 段落)。
  • unknown/any 与宽松字面量
    • 通知回调中移除 Record<string, string>/unknown 临时断言,改为强类型访问;
  • 通知匹配与日志
    • UUID 小写比对,详细打印 service/char UUID 与十六进制载荷,便于现场排障。

这些修复在不改变业务语义的前提下,让代码同时满足 ArkTS 语义与 Lint 规则,构建稳定且可维护。

  • 设备发现与缓存
    • entry/src/ohosTest/ets/test/BleDiscoveryService.test.ets
    • entry/src/ohosTest/ets/test/DeviceCache.test.ets
  • 覆盖点:
    • 扫描状态流转、按名称过滤、RSSI 排序、自动停止;
    • 可信设备标记、缓存清理、容量上限、过期统计等。
  • 运行:
    • hvigor test
    • 按文件过滤:hvigor test --filter BleDiscoveryService
  • 场景用例:entry/src/ohosTest/ets/test/BleUIIntegration.test.ets
    • 启动 → 开始扫描 → 发现设备 → 连接 → 同步时间/刷新状态/发送输注 → 断开。
    • 利用 @kit.TestKitDriver 查找按钮、点击与断言,保障“从 UI 到协议”的端到端路径。
  • 运行:
    • 全量集成测试:hvigor test --integration
  • BLE 环节多为异步回调:为扫描/连接/写入/通知分别设置合理超时(如 5–15s),避免误报;
  • 对关键 UI 文案与按钮可多次尝试查找,提升稳定性;
  • 以十六进制日志为断言辅助(见 BleService.ets/BleService.ets)。
  • 通知顺序与“预热”
    • 订阅 → 打开通知 → 先读一次,能显著提升部分设备第一次下行响应的成功率。
  • MTU 与指令长度
    • 典型 BLE 4.2 仅 20 字节,复杂指令需要分拆或升级端侧/固件侧协商策略。
  • 小端编码与 CRC
    • 指令总长度、字段编码与 CRC16(CCITT/False)计算需与固件严格对齐。
  • HiLog 代替 console
    • 统一域/Tag 与 %{public} 输出(见 docs/hilog-migration-summary.md),便于线下与现场定位。
  • 权限与蓝牙状态
    • 统一入口:entry/src/main/ets/utils/BlePermissionManager.ets ensureBleReady(...),在进入扫描前一次性处理权限与适配器状态。

得益于 Claude Code 的“代码导航 + 编译修复 + 测试生成功能”,我们用最少的往返就完成了从协议梳理到端到端跑通的闭环:

  • 蓝牙交互:扫描、连接、通知、命令、记录解析全链路打通;
  • ArkTS 修复:严格遵循语义与 Lint 规则,构建稳定;
  • TDD/BDD:单元与 UI 集成测试覆盖主要场景,便于持续回归。

推荐的后续工作:

  • BleCommand 中补齐 READ_RECORD_WITH_TYPE 指令构造,与现有解析对接,完善“按索引拉取日志”。
  • 引入更细粒度的 ViewModel 层状态管理与数据持久化,配合记录同步形成完整“云-端-设备”闭环。
  • 梳理异常码与重试策略,增强断网/重连下的健壮性。

Claude Code 自动迁移 HarmonyOS BLE v15+ 多路扫描与连接管理

之前项目中使用的 HarmonyOS BLE API 版本较低(v14及以前),存在单路扫描限制、资源管理不完善等问题。

现在使用Claude Code生成和修改代码,帮助我理解并自动迁移到最新的 HarmonyOS BLE API v15+,实现多路扫描和更健壮的连接管理。

最后总结记录了从 v14 迁移到 v15+ 的完整过程,重点介绍多路扫描支持、广播数据解析和连接管理优化。

在 HarmonyOS 生态中,BLE(Bluetooth Low Energy)是智能设备互联的重要技术。随着应用需求的增加,单路扫描的限制逐渐显现,尤其是在需要同时扫描多个设备或服务的场景下。

HarmonyOS 在 API version 15 中引入了多路扫描支持,允许应用创建多个独立的扫描实例,提升了资源管理和扫描灵活性。

然而,现有项目代码仍然基于旧版 API,存在以下问题:

  1. 单路扫描限制:只能同时进行一个扫描任务,无法满足多设备扫描需求。
  2. 资源管理不完善:扫描器实例未独立管理,导致状态混乱。
  3. 缺少广播数据解析:扫描结果未解析广播数据,影响设备信息获取。
  4. 连接管理简单:缺少重试和自动重连机制,影响连接稳定性。

基于最新的 HarmonyOS BLE API v15+,重构现有的 BLE 服务代码,实现以下目标:

  1. 多路扫描支持:允许同时运行多个扫描任务,每个任务独立管理。
  2. 独立资源管理:每个扫描器实例独立控制,避免冲突。
  3. 完整的广播数据解析:实现对 BLE 广播数据的解析功能。
  4. 增强的连接管理:实现连接重试和自动重连机制,提升连接稳定性。
  5. 现代化的异步处理:使用 Promise/async-await 处理异步 BLE 操作。

在开始迁移之前,首先需要下载官方文档,让 Claude Code 了解 HarmonyOS BLE API v15+ 的新特性和变更。

我将官方文档内容提供给 Claude Code,并请求它分析现有代码中的问题,并执行迁移到最新 API 的步骤。

Terminal window
> @harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md 推荐使用API version
15开始支持的扫描方式,该方式支持应用发起和管理多路扫描。不要再使用 API version
14及以前支持的扫描方式只支持应用发起单路扫描
Read harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md (806 lines)
我理解了,这份文档强调了HarmonyOS BLE开发的重要更新:
关键要点
API版本升级建议:
- 推荐:使用API version 15+的多路扫描方式
- 避免:API version 14及以前的单路扫描方式
主要差异对比
API v15+ (推荐方式)
// 创建独立的扫描实例,支持多路扫描管理
let bleScanner: ble.BleScanner = ble.createBleScanner();
// 订阅扫描结果
bleScanner.on('BLEDeviceFind', onReceiveEvent);
// 启动扫描
bleScanner.startScan([scanFilter], scanOptions);
// 停止扫描
bleScanner.stopScan();
优势:
- 支持多路并发扫描
- 每个扫描实例独立管理
- 更灵活的资源控制
- 更好的扫描隔离性
API v14及以前 (不推荐)
// 全局单例扫描,仅支持单路
ble.on('BLEDeviceFind', onReceiveEvent);
ble.startBLEScan([scanFilter], scanOptions);
ble.stopBLEScan();
局限:
- 仅支持单路扫描
- 全局状态管理复杂
- 无法同时管理多个扫描任务
实施建议
根据文档中的示例代码(BleScanManager类),建议项目采用以下架构:
1. 使用BleScanner实例管理:每个扫描任务创建独立的BleScanner实例
2. 封装扫描管理器:如文档中的BleScanManager类,统一管理扫描生命周期
3. 完整的广播解析:实现完整的BLE广播数据解析功能
4. 异步操作处理:使用Promise/async-await处理异步BLE操作
这种升级对于HarmonyOS项目特别重要,因为应用可能需要同时扫描多个设备或执行不同类型的扫描任务。
我将基于HarmonyOS API v15+的最新规范重构BleService.ets,实现多路扫描管理和更现代化的BLE操作架构。
代码分析
现有BleService.ets存在以下关键问题:
1. 使用已废弃的API v14单路扫描:使用ble.startBLEScan()和ble.on('BLEDeviceFind')
2. 缺少BLE广播数据解析:未解析扫描结果中的广播数据
3. 资源管理不完善:扫描器实例未独立管理
4. 错误处理简单:缺少细粒度的错误恢复机制
...

Claude Code 根据分析结果,生成了新的 BleService.ets 代码,包含多路扫描支持、广播数据解析和增强的连接管理功能。

481
482 // Pending response callbacks
483 private pendingCallbacks: Map<string, (data: ArrayBuffer) => void> = new Map();
484 +
485 + /**
486 + * Clean up scanner resources
487 + */
488 + private cleanupScanner(scanId: string): void {
489 + // Clear timer
490 + const timer = this.scanTimers.get(scanId);
491 + if (timer) {
492 + clearTimeout(timer);
493 + this.scanTimers.delete(scanId);
494 + }
495 +
496 + // Remove from active set
497 + this.activeScanners.delete(scanId);
498 +
499 + // Clean up scanner instance
500 + this.bleScanners.delete(scanId);
501 + this.scanCallbacks.delete(scanId);
502 + }
503 +
504 + /**
505 + * Set up periodic cleanup of stale discovered devices
506 + */
507 + private setupDeviceCleanupTimer(): void {
508 + setInterval(() => {
509 + const now = Date.now();
510 + const staleThreshold = 60000; // 60 seconds
511 +
512 + for (const [deviceId, lastSeen] of this.deviceLastSeenTime.entries()) {
513 + if (now - lastSeen > staleThreshold) {
514 + // Remove stale devices not connected
515 + if (!this.connectedDevices.has(deviceId)) {
516 + this.discoveredDevices.delete(deviceId);
517 + this.deviceLastSeenTime.delete(deviceId);
518 + hilog.info(DOMAIN, TAG, `Removed stale device: ${deviceId}`);
519 + }
520 + }
521 + }
522 + }, 30000); // Run every 30 seconds
523 + }
524 +
525 + /**
526 + * Get all discovered devices (including non-connected)
527 + */
528 + public getDiscoveredDevices(): BleDevice[] {
529 + return Array.from(this.discoveredDevices.values());
530 + }
531 +
532 + /**
533 + * Get active scanner IDs
534 + */
535 + public getActiveScanners(): string[] {
536 + return Array.from(this.activeScanners);
537 + }
538 +
539 + /**
540 + * Create targeted scan for specific device
541 + */
542 + public async scanForDevice(
543 + deviceId: string,
544 + timeout: number = 10000
545 + ): Promise<BleDevice | null> {
546 + return new Promise((resolve, reject) => {
547 + const scanId = `targeted-${deviceId}-${Date.now()}`;
548 +
549 + this.startScan(
550 + scanId,
551 + (device) => {
552 + if (device.id === deviceId) {
553 + this.stopScan(scanId);
554 + resolve(device);
555 + }
556 + },
557 + { timeout }
558 + );
559 +
560 + // Set timeout for not finding device
561 + setTimeout(() => {
562 + if (this.activeScanners.has(scanId)) {
563 + this.stopScan(scanId);
564 + resolve(null);
565 + }
566 + }, timeout);
567 + });
568 + }
569 }

我对生成的代码进行了详细审查,确保符合项目需求,并在实际设备上进行了全面测试,验证多路扫描和连接管理功能的稳定性。

Terminal window
$ hdc file send entry/build/default/outputs/ohosTest/entry-ohosTest-signed.hap "data/local/tmp/6a550b34422f402d80438c69110c772e"
$ hdc shell bm install -p data/local/tmp/6a550b34422f402d80438c69110c772e
$ hdc shell rm -rf data/local/tmp/6a550b34422f402d80438c69110c772e
Running tests.
$ hdc shell aa test -b com.vibersparking.ble_test -m entry_test -s unittest OpenHarmonyTestRunner -s class BleServiceTest -s timeout 15000
Started running tests.
Test finished.

最后让Claude Code生成了完整的总结文件,记录了从HarmonyOS BLE API v14迁移到v15+的完整过程,包括多路扫描支持、广播数据解析和增强的连接管理功能。

特性API v14及之前API v15+
扫描方式单路扫描(全局)多路扫描(实例化)
扫描器管理ble.startBLEScan()ble.createBleScanner()
扫描事件ble.on('BLEDeviceFind')bleScanner.on('BLEDeviceFind')
停止扫描ble.stopBLEScan()bleScanner.stopScan()
资源管理全局状态独立实例管理
  • 多路并发扫描:支持同时运行多个扫描任务
  • 独立资源管理:每个扫描器独立控制,避免冲突
  • 更好的错误隔离:单个扫描失败不影响其他扫描
  • 灵活的过滤配置:每个扫描可设置独立过滤条件
export class BleService {
// API v15+ 扫描器管理
private bleScanners: Map<string, ble.BleScanner> = new Map();
private activeScanners: Set<string> = new Set();
private scanCallbacks: Map<string, (device: BleDevice) => void> = new Map();
private scanTimers: Map<string, number> = new Map();
// 设备缓存管理
private discoveredDevices: Map<string, BleDevice> = new Map();
private deviceLastSeenTime: Map<string, number> = new Map();
// 连接管理
private autoReconnectDevices: Set<string> = new Set();
private connectionRetryCount: Map<string, number> = new Map();
}
public startScan(
scanId: string,
callback: (device: BleDevice) => void,
options?: BleStartScanOptions
): void {
// 检查扫描ID唯一性
if (this.activeScanners.has(scanId)) {
hilog.warn(DOMAIN, TAG, `Scanner ${scanId} already active`);
return;
}
try {
// 创建独立扫描器实例 (API v15+)
const bleScanner = ble.createBleScanner();
this.bleScanners.set(scanId, bleScanner);
this.scanCallbacks.set(scanId, callback);
// 配置扫描过滤器
const scanFilters: ble.ScanFilter[] = [];
if (options?.filterServiceUuid) {
scanFilters.push({
serviceUuid: SERVICE_UUID
});
}
// 订阅扫描结果
bleScanner.on('BLEDeviceFind', (scanReport: ble.ScanReport) => {
this.onDeviceFoundV15(scanId, scanReport);
});
// 启动扫描
bleScanner.startScan(scanFilters, scanOptions);
this.activeScanners.add(scanId);
// 设置自动停止定时器
const timeout = options?.timeout || SCAN_TIMEOUT_MS;
const timer = setTimeout(() => {
if (this.activeScanners.has(scanId)) {
this.stopScan(scanId);
}
}, timeout);
this.scanTimers.set(scanId, timer);
} catch (error) {
this.cleanupScanner(scanId);
throw error;
}
}
export class BleAdvertisingParser {
public parse(data: ArrayBuffer): ParsedAdvertisingData {
const result: ParsedAdvertisingData = {
serviceUuids: [],
serviceSolicitationUuids: [],
serviceData: new Map(),
manufactureSpecificData: new Map(),
rawData: data
};
const advData = new Uint8Array(data);
let position = 0;
while (position < advData.byteLength) {
const length = advData[position++];
if (length === 0) break;
const type = advData[position++];
const dataLength = length - 1;
const dataStart = position;
switch (type) {
case AdvertisingDataType.FLAGS:
result.flags = advData[dataStart];
break;
case AdvertisingDataType.LOCAL_NAME_COMPLETE:
result.localName = this.parseString(advData, dataStart, dataLength);
break;
case AdvertisingDataType.SERVICE_UUID_16_COMPLETE:
this.parseServiceUuids(advData, dataStart, dataLength, 2, result.serviceUuids!);
break;
case AdvertisingDataType.MANUFACTURER_SPECIFIC_DATA:
this.parseManufacturerData(advData, dataStart, dataLength, result.manufactureSpecificData!);
break;
}
position += dataLength;
}
return result;
}
}
public async connectDevice(
deviceId: string,
options?: BleConnectOptions
): Promise<void> {
const timeout = options?.timeout || CONNECTION_TIMEOUT_MS;
const retryCount = options?.retryCount || 3;
const autoReconnect = options?.autoReconnect !== false;
// 实现重试逻辑
let lastError: Error | null = null;
for (let attempt = 1; attempt <= retryCount; attempt++) {
try {
await this.connectWithTimeout(deviceId, timeout);
if (autoReconnect) {
this.autoReconnectDevices.add(deviceId);
}
return; // 成功
} catch (error) {
lastError = error as Error;
if (attempt < retryCount) {
// 指数退避重试
const delay = Math.min(1000 * Math.pow(2, attempt - 1), 5000);
await this.delay(delay);
}
}
}
throw new Error(`Failed to connect after ${retryCount} attempts: ${lastError?.message}`);
}
// 添加新的接口定义
interface BleStartScanOptions {
timeout?: number;
filterServiceUuid?: boolean;
filterManufacturerId?: boolean;
}
interface BleConnectOptions {
timeout?: number;
retryCount?: number;
autoReconnect?: boolean;
}

旧代码 (v14):

ble.startBLEScan([scanFilter], scanOptions);
ble.on('BLEDeviceFind', (devices: Array<ble.ScanResult>) => {
this.onDeviceFound(devices);
});

新代码 (v15+):

const bleScanner = ble.createBleScanner();
bleScanner.on('BLEDeviceFind', (scanReport: ble.ScanReport) => {
this.onDeviceFoundV15(scanId, scanReport);
});
bleScanner.startScan([scanFilter], scanOptions);
private cleanupScanner(scanId: string): void {
// 清理定时器
const timer = this.scanTimers.get(scanId);
if (timer) {
clearTimeout(timer);
this.scanTimers.delete(scanId);
}
// 移除活动扫描器
this.activeScanners.delete(scanId);
// 清理扫描器实例
this.bleScanners.delete(scanId);
this.scanCallbacks.delete(scanId);
}
private setupDeviceCleanupTimer(): void {
setInterval(() => {
const now = Date.now();
const staleThreshold = 60000; // 60秒
this.deviceLastSeenTime.forEach((lastSeen, deviceId) => {
if (now - lastSeen > staleThreshold) {
if (!this.connectedDevices.has(deviceId)) {
this.discoveredDevices.delete(deviceId);
this.deviceLastSeenTime.delete(deviceId);
}
}
});
}, 30000);
}
const bleService = BleService.getInstance();
// 启动扫描
bleService.startScan(
'scan-1',
(device) => {
console.log(`Found device: ${device.name}`);
},
{
timeout: 30000,
filterServiceUuid: true
}
);
// 扫描特定服务
bleService.startScan('service-scan', callback1, {
filterServiceUuid: true
});
// 扫描特定制造商
bleService.startScan('manufacturer-scan', callback2, {
filterManufacturerId: true
});
// 通用扫描
bleService.startScan('general-scan', callback3, {
timeout: 60000
});
// 带重试和自动重连的连接
await bleService.connectDevice(deviceId, {
timeout: 10000,
retryCount: 3,
autoReconnect: true
});
// 监听连接状态
bleService.addConnectionStateListener(deviceId, (state, prevState) => {
console.log(`Connection state changed: ${prevState} -> ${state}`);
});
  1. 扫描管理

    • 为每个扫描任务分配唯一ID
    • 设置合理的超时时间
    • 及时清理不需要的扫描器
  2. 设备缓存

    • 实现过期机制避免内存泄漏
    • 保留最近发现的设备信息
    • 支持快速重连
  3. 错误处理

    • 实现重试机制
    • 使用指数退避策略
    • 提供详细的错误日志
  4. 资源优化

    • 避免重复扫描
    • 合理设置扫描参数
    • 及时释放GATT客户端
  1. 扫描优化

    const scanOptions: ble.ScanOptions = {
    interval: 0, // 无延迟报告
    dutyMode: ble.ScanDuty.SCAN_MODE_LOW_LATENCY, // 低延迟模式
    matchMode: ble.MatchMode.MATCH_MODE_AGGRESSIVE // 激进匹配
    };
  2. 连接优化

    • 实现连接池管理
    • 预先发现服务缓存
    • 批量处理通知数据
  3. 内存管理

    • 定期清理过期设备
    • 限制缓存大小
    • 避免内存泄漏
  1. 扫描无结果

    • 检查蓝牙权限
    • 验证蓝牙是否开启
    • 确认过滤条件正确
  2. 连接失败

    • 增加重试次数
    • 延长超时时间
    • 检查设备是否在范围内
  3. 资源泄漏

    • 确保清理所有扫描器
    • 正确关闭GATT客户端
    • 清理事件监听器

API v15+的升级带来了显著的改进:

  • ✅ 支持多路并发扫描
  • ✅ 独立的资源管理
  • ✅ 更好的错误隔离
  • ✅ 灵活的配置选项
  • ✅ 增强的稳定性

通过遵循本指南,可以顺利完成从v14到v15+的迁移,充分利用新API的优势,提供更稳定、高效的BLE连接体验。

AI 闭环开发实战:Codex、Claude Code、Gemini CLI 联手打造 ToDo 应用

现在 AI 真的能独立开发一个网站了吗?本文分享一次真实实验:让三个 AI 工具各司其职,协作完成一个 ToDo 待办管理网站的端到端开发。我们让它们分别扮演:

  • Codex:项目经理(需求与验收标准)
  • Claude Code:开发与自测工程师
  • Gemini CLI:代码审查与文档工程师

最终形成一个从「需求分析 -> 功能实现 -> 自动测试 -> 复审改进 -> 总结文档」的 AI 协同闭环。


1. Codex:AI 项目经理制定需求清单

Section titled “1. Codex:AI 项目经理制定需求清单”

Codex 擅长把模糊想法转化为结构化需求。我们给出“待办事项网站”这个概念,并要求:

  • 输出功能需求文档
  • 列出每项功能的量化验收标准
  • 补充异常与边界场景

示例提示(Prompt):

请充当项目经理。基于“待办事项网站”构想,生成详细功能需求文档,并为每项功能制定可量化的验收标准。

Codex 产出内容涵盖:

  • 基础功能:添加任务 / 标记完成 / 删除任务
  • 任务状态显示与更新逻辑
  • 验收标准示例:
    • 添加后任务应立即出现在列表
    • 标记完成的任务样式区别于未完成
    • 删除后列表即时刷新且无残留
  • 异常处理:空输入、重复任务、非法字符等

要点提示:

  • 提示越具体,生成的需求越完整
  • 明确“行为 + 判定标准”可直接转换为测试用例

2. Claude Code:AI 开发工程师生成并执行代码

Section titled “2. Claude Code:AI 开发工程师生成并执行代码”

Claude Code 接收需求文档后开始实现前后端与基础测试,用 React + Node/Express 构建:

  • 前端:任务输入、展示、状态切换、删除交互
  • 后端:简单内存数据存储 + REST API(增/查/更/删)
  • 支撑文档:README(运行步骤、依赖说明)
  • 自动化测试:模拟添加 / 标记 / 删除并断言状态与列表长度

示例提示:

根据这份需求文档,实现 ToDo 列表网站的前后端代码。使用 React 和 Node.js。包含:添加任务、标记完成、删除任务,并编写自动化测试验证各功能。

Claude 的执行特点:

  • 按模块生成文件(组件、服务、测试)
  • 边写代码边运行测试,未通过即调整
  • 发现并修复:例如删除后未即时刷新等小问题

不足之处(待改进):

  • UI 初版较朴素
  • 尚未实现任务过滤 / 搜索
  • 缺少持久化(仅内存)

3. Gemini CLI:AI 代码审查员检查并改进

Section titled “3. Gemini CLI:AI 代码审查员检查并改进”

Gemini CLI 作为审查与总结角色,聚焦:

  • 核对功能是否满足需求与验收标准
  • 指出缺口与可提升项
  • 生成项目总结与技术文档

示例提示:

请作为代码审查员,检查该 ToDo 应用是否满足需求文档的验收标准;若有不足给出改进建议;并生成一份技术说明文档(包含功能概述、运行步骤、实现要点及后续优化建议)。

Gemini 给出的改进建议示例:

  • 增加任务过滤:全部 / 未完成 / 已完成
  • 可添加搜索或分页以应对大量任务
  • UI 增强:状态颜色、空列表占位文案、按钮可访问性
  • 引入数据持久化(文件 / SQLite / IndexedDB / LocalStorage)
  • 增加错误提示与输入校验反馈
  • 增加 E2E 测试(如使用 Playwright)

生成的技术文档结构(摘要):

  • 项目简介
  • 功能列表与对应实现
  • 技术栈:React(前端 SPA)+ Axios(API 调用)+ Express(REST 服务)
  • 运行步骤:安装依赖 -> 启动后端 -> 启动前端 -> 访问本地端口
  • 测试说明:功能测试 + 可扩展集成测试
  • 未来规划:状态过滤、持久化、权限、多用户、多端适配

优势:

  • 角色清晰:需求 → 实现 → 审查 → 文档一气呵成
  • 可追溯:验收标准直接映射测试
  • 高效:人工主要做“监督 + 方向”而非繁琐重复劳动
  • 质量:多模型视角减少疏漏

当前局限:

  • 复杂业务建模仍需人工抽象
  • 深层性能、安全、并发等问题仍需专业评估
  • UI/UX 创新度有限(偏功能正确性)

建议优先扩展:

  1. 功能层:状态过滤 / 搜索 / 批量操作 / 截止日期 / 优先级
  2. 数据层:持久化(SQLite/Prisma)+ 简易身份体系
  3. 测试层:E2E 测试 + 性能指标(首屏渲染、交互延迟)
  4. 架构层:拆分服务 / 引入依赖注入 / 日志与错误追踪
  5. 体验层:无障碍(ARIA 标签)、响应式布局、深浅色模式
  6. 运维层:容器化部署 + CI(构建 / 测试 / Lint / 预览环境)

需求生成:

你是项目经理。请输出:功能概述、功能清单、每项功能验收标准、异常场景、非功能需求(性能/安全/可维护性)。

代码实现:

依据以下需求(粘贴),使用 React + Node/Express 完成实现。请分模块输出:目录结构、核心代码、测试代码、运行说明。

代码审查与文档:

请审查以下代码与需求匹配度。输出:通过项、不足项、优先级排序的改进建议,并生成技术文档(含运行、测试、扩展说明)。

这次实验展示了一个紧凑、高效、可复制的 AI 协作开发闭环:
Codex 让目标清晰;Claude Code 快速产出并自测;Gemini CLI 审查提升与补全文档。
AI 已能显著减少样板与重复劳动,人类可将精力投入更高阶的产品与架构思考。
你是否也想尝试让 AI 成为你的虚拟“小团队”?从一个最小功能集(MVP)开始,就是最佳起点。

欢迎思考:未来 AI 是否能独立完成更复杂的多层系统?你的观点是什么?
动手实践,也许下一个加速的工作流就诞生在你的侧边终端里。

AI 大模型的真实用途指南:从星座配对到炒股医疗

AI 大模型其实早已渗透进我们的日常生活
本文带你按人群与场景了解:情感娱乐 / 投资理财 / 健康咨询 / 学习助手 / 创意玩法 / 进阶自学。


“普通人怎么用 AI 大模型?”
不同的人有不同的需求:有人迷星座与感情,有人关心股票,有人问养生,有学生想写作业,还有人纯粹想玩创意。AI 像生活里的外挂——用得好能省时、省心、增效,但它不是万能预言机。下面分场景详解。


女性用户:星座配对与情感陪伴

Section titled “女性用户:星座配对与情感陪伴”

很多人喜欢星座、占卜、情绪安慰,AI 可以模拟“星座大师”“情感顾问”,提供陪伴与基础建议。它不通灵,但擅长生成语气友好、带共情的回应。

推荐工具: ChatGPT、必应聊天(Bing)。
适用用途: 星座配对、塔罗玩法、倾诉与安慰、写走心文案。

示例提示词:

我和男友一个天蝎一个双鱼,帮我分析下星座匹配点与潜在矛盾,并给沟通建议。
请用塔罗占卜口吻,模拟抽牌,描述我未来两个月的感情运势(娱乐向)。
我闺蜜失恋很伤心,请用温柔真诚的语气安慰她,少鸡汤多共情。

小技巧:

  • 追问要具体:如“再具体点,他可能什么时候出现?列 3 种场景。”
  • 可要求结构:如“用‘性格互补’、‘潜在分歧’、‘沟通建议’三段输出。”
  • 记住:娱乐而已,勿当真。

提醒:AI 无法预测真实未来。


男性用户:理财 / 投资分析辅助

Section titled “男性用户:理财 / 投资分析辅助”

AI 可辅助整理公司信息、解释宏观概念、帮写分析框架。它不是股神——更像“逻辑还行但需你监督的实习生”。

推荐工具: ChatGPT(逻辑分析)、必应 / Bard(联网补充最新资讯)、行业专业终端(Bloomberg 等——普通用户少接触)。
适用用途: 行业梳理、财务结构对比、风险列举、研报框架草稿。

示例提示词:

假设你是资深投资顾问,分析苹果(AAPL)未来 12 个月的增长驱动、主要风险,并给出中性、乐观、保守三种场景。
比较工商银行与招商银行 近三年的盈利结构、资产质量(若数据缺失请标注假设)。
在美联储加息周期下,AI 相关科技股的典型风险有哪些?请用通俗语言列点。

使用案例:
有人用 AI 得到结构化分析 → 自己再去核对数据 → 避免情绪化“梭哈”。

避坑:

  • 让它列“数据来源”与“需二次验证点”。
  • 不要问“买什么一定涨”。
  • 避免只看一句结论:要求“给出逻辑链条”。

免责声明:以上内容不构成投资建议;请结合实时数据与专业渠道独立判断。


AI 能快速提供饮食、运动、常见疾病科普。适合作为“健康百科+提问界面”。不替代医生诊断。

推荐工具: 必应聊天、ChatGPT、丁香医生智能问答等。
适用用途: 常见症状科普、生活方式提醒、指标基本意义解释。

示例提示词:

秋季血压偏高,有哪些饮食与作息建议?请用简洁条目。
我晚上常有胃酸返流(reflux),列 5 条生活方式调整建议,并说明原理。
以下体检指标(粘贴数据)请按:异常项 -> 可能意义 -> 建议,格式输出。

子女协助建议:

  • 帮长辈添加“仅供科普,需医生确认”提示。
  • 要求 AI 标注“不确定/需就医”情况。

免责声明:AI 输出不替代专业医疗诊断与处方;急症或用药务必咨询医生。


AI 可解题、列提纲、讲概念、批改作文。但不要纯粹复制——老师易识别文风。

推荐工具: 必应(拍题/联网)、ChatGPT(分步讲解写作)、Photomath / 作业帮(针对性解题)。
适用用途: 分步推导、知识点重述、作文结构、口语/翻译练习。

示例提示词:

请分步骤求解方程 2x^2 - 4x + 1 = 0,展示公式推演与判别式思路。
把这段中文翻译成自然英文(中级难度,注意时态与衔接):……
高中作文题《成长的烦恼》,请先给 5 个新颖立意角度,并各列简要论据。

正确使用姿势:

  • 让它“先给提示,不直接给最终答案”。
  • 让 AI 批改你写的草稿而非替你写全稿。
  • 要求指出“语法错误 + 改进理由”。

建议:用它学习“解题思路”,不用它“替你学习”。


泛娱乐用户:图像 / 视频 / 音频创意

Section titled “泛娱乐用户:图像 / 视频 / 音频创意”

AI 是“低门槛创作加速器”。通过精确提示词迭代可得到接近期望的作品。

推荐工具:
图像:Midjourney / Stable Diffusion / DALL·E 3
视频:Runway / Gen-2
音频:ElevenLabs / Azure TTS
(脚本创意与组合:ChatGPT)

示例提示词:

图像:赛博朋克风,一只戴墨镜的柴犬,霓虹城市背景,紫蓝对比光,电影质感。
视频:生成 10 秒动画:一本书合上再打开,文字粒子飞出汇聚成“知识就是力量”。
音频:用播音员风格朗读:欢迎收听本期科技播客……

技巧:

  • 结构化提示:主体 / 风格 / 光影 / 构图 / 细节 / 质量。
  • 反复迭代:告诉模型“第3版背景太杂,请简化”。
  • 注意版权与人物肖像合规。

提醒:AI 生成内容用于商用前需核实版权与许可风险。


教育进阶:结构化复习 / 自测 / 自学伙伴

Section titled “教育进阶:结构化复习 / 自测 / 自学伙伴”

把 AI 当“主动式学习驱动器”:让它总结、抽取重点、出题、批改、角色扮演辅导。

推荐工具: ChatGPT(通用+插件)、必应(补充实时信息)、WolframAlpha(数学严谨性)、GitHub Copilot(编程)、语言类应用(DuoLingo AI 模式)。

示例提示词:

请用类比解释:量子力学中的叠加态,要求:1 个生活类比 + 1 句形式化描述。
以下笔记(粘贴)请提炼:核心概念/关键结论/易混淆点(表格或条目)。
你是历史老师,出 10 道近代史单选题;最后集中列答案与解析,并标注考点。
请扮演英语写作教练:这是我写的段落(粘贴),先标出问题,再给改进建议与改写版本。

高效策略:

  • 限制输出结构(如:“只给三层要点,每层不超过 12 字”)。
  • 要求“列出你不确定或可能错误的点”。
  • 用“假设我答错,请追问直到我理解”为循环学习模式。

避坑:

  • 出现与教材不一致时:让它给出处/可能冲突原因。
  • 针对公式/数据:要求“逐步推导”防止幻觉。

AI 是“多场景通用增强工具”:陪聊、分析、科普、创作、学习都能赋能。
核心原则:

  • 明确角色与任务
  • 结构化提示
  • 追问与验证
  • 工具而非权威
  • 责任与决策仍在你自己

你在哪些场景用过 AI?欢迎分享你的有趣经验。若觉得有帮助,转发让更多人少踩坑、多增效。


你现在的角色:{角色定位}
目标:{想解决的问题/产出形式}
背景材料:{粘贴或留空}
输出结构:{条目 / 表格 / 分步骤}
约束:{字数 / 语气 / 语言}
请先给提纲,等待我输入“继续”再展开。

免责声明:文中涉及投资与健康的内容仅为信息参考,不构成投资、医疗、法律或专业建议;请结合权威渠道与专业人士意见。

用 Claude Code 做「微信聊天日报」:用 chatlog + MCP,3 步跑通

把昨天所有群聊和私聊,一键变日报:top 关键词、重点人、待办、风险提醒,全自动。 本文手把手教你用 Claude Code + chatlog 把聊天数据榨干成洞察,还送上开箱即用的提示词。


  • 跑通流程:导出/解密 → 开 HTTP → 连接 Claude Code(MCP) → 一键出日报
  • 提示词模板:复制即用,覆盖拉取数据、分析聚合、生成日报(Markdown/HTML/图片)
  • 最佳实践:关键词雷达、敏感词预警、待办抓取、情绪曲线
  • 避坑清单:密钥、SIP、远程/本地连接、CSV/语音

chatlog 是一个开源工具,支持从本地微信数据库取数、自动解密、HTTP API、Webhook、以及 MCP Streamable HTTP,能直接被 Claude Code 当成「数据工具」来用。


Terminal window
# 安装(任选其一)
go install github.com/sjzar/chatlog@latest
# 或去 Releases 下载预编译版本

启动后在 TUI 里选择 解密数据开启 HTTP 服务(默认 http://127.0.0.1:5030)。 API 示例:

GET /api/v1/chatlog?time=2025-09-17&talker=wxid_xxx&format=json
GET /api/v1/contact
GET /api/v1/session

支持 YYYY-MM-DDYYYY-MM-DD~YYYY-MM-DD 时间窗,format 支持 json/csv/text

小贴士:需要先获取数据密钥/图片密钥;macOS 用户获取前需临时关闭 SIP(完事可再开启)。

2)把 chatlog 作为 MCP 服务器暴露给 Claude Code

Section titled “2)把 chatlog 作为 MCP 服务器暴露给 Claude Code”

chatlog 原生支持 MCP Streamable HTTP,启动 HTTP 后路径为:

GET http://127.0.0.1:5030/mcp

在 Claude Code 里添加远程 MCP:

Terminal window
# 语法来自官方示例:claude mcp add --transport http <name> <url>
claude mcp add --transport http chatlog http://127.0.0.1:5030/mcp

然后在 Claude Code 输入 /mcp 管理与使用工具。

MCP 是 Anthropic 推出的开放标准,支持 Streamable HTTP 传输、OAuth/Token 等认证,便于把外部数据接入 AI 助手。

备注:Claude 的远程 MCP 支持已逐步放开,也可以走本地 STDIO;具体以你账户与版本为准。


二、最省心的日报结构(可直接让 Claude 生成)

Section titled “二、最省心的日报结构(可直接让 Claude 生成)”
  • 今日概览:消息总量、活跃会话数、Top 群/私聊、峰值时段
  • 关键词雷达:TF-IDF/关键短语/话题聚类(合并同义词)
  • 任务抽取:含「明天/今晚/帮我/待办/安排」等表述的 To-Do 清单
  • 风险提醒:自定义敏感词/合规词库命中计数与上下文
  • 情绪曲线:按小时的情感分布(积极/中性/消极),标注异常峰值
  • 高价值片段:Top5 信息密度最高的对话摘录(附会话名/时间戳/消息 ID)
  • 附录:原始数据链接(API 可回跳到图片/文件/语音解密流)

三、Claude Code 提示词(复制即用)

Section titled “三、Claude Code 提示词(复制即用)”

用法:把 {} 内的变量替换;在 Claude Code 里直接粘贴即可。 下面既支持 MCP 方式(推荐),也给出 HTTP 直连 的方案(curl/脚本),方便你选择。

你现在连接了一个 MCP 服务器:name=chatlog,endpoint=http://127.0.0.1:5030/mcp。
1)列出 chatlog 提供的全部工具/资源,并简要说明用途。
2)检查是否有查询聊天记录、联系人、会话列表、媒体访问的能力。
3)如果有分页/limit 参数,告诉我默认值与最大值。

B. 拉取昨天所有消息(按会话聚合)

Section titled “B. 拉取昨天所有消息(按会话聚合)”
目标:生成“微信聊天日报({date})”。
数据拉取要求:
- 日期范围:{date} 00:00:00 ~ {date} 23:59:59(本机时区)
- 每个会话最多拉取 {per_chat_limit} 条,整体最多 {global_limit} 条
- 字段包含:time, talker, isChatRoom, sender, content, type, subType
- 若 message 有多媒体(图片/文件/语音),记录可访问 URL
动作:
- 调用 chatlog 的查询工具/HTTP API:/api/v1/chatlog?time={date}~{date}&format=json&limit={global_limit}
- 失败时自动重试 2 次,并记录失败会话
- 把结果按会话 ID 聚合,总结每个会话的消息数与活跃时段直方图
输出:生成一个 data.json(内含原始与聚合)

(API 形态参考 README;chatlog 会把媒体通过服务实时解密/转发为可访问路径)

对 data.json:
1)做中文分词+去停用词+同义词合并(如“OK/好的/行/可以”归并)。
2)输出 Top20 关键词(权重、示例句、在哪些会话频繁出现)。
3)基于规则+大模型,抽取待办(责任人、动词、截止时间、上下文链接)。
4)维护一个敏感词表(我会补充),做命中统计与上下文 3 句窗口。
输出:keywords.json、todos.json、alerts.json
请对每条消息做粗粒度情感标签(积极/中性/消极),并按小时聚合为曲线。
找出异常峰值(如 3σ 以上),列出对应会话与关键片段。
输出:sentiment_by_hour.csv、peaks.md(含解释)

E. 生成日报(Markdown + HTML + 图片)

Section titled “E. 生成日报(Markdown + HTML + 图片)”
把 {keywords.json, todos.json, alerts.json, sentiment_by_hour.csv} 组装为“聊天日报({date})”。
版式:
- 今日概览(要有数据表)
- 关键词雷达(词云图 + 每词 1 句总结)
- 待办清单(责任人/截止时间/链接)
- 风险提醒(命中词/次数/上下文跳转)
- 情绪曲线(折线图)
- 高价值片段 Top5(含会话名/时间戳)
要求:
- 先产出 Markdown(report.md),再渲染简洁 HTML(report.html,内联样式)
- 图片:生成词云、情绪曲线两张图,保存在 ./assets,写入 HTML 引用
- 最后给出“一键复制”区块(Markdown 版)

F. 快速 HTTP 直连(不用 MCP 也能跑)

Section titled “F. 快速 HTTP 直连(不用 MCP 也能跑)”
Terminal window
# 拉取昨天数据(JSON)
curl -G "http://127.0.0.1:5030/api/v1/chatlog" \
--data-urlencode "time=2025-09-17~2025-09-17" \
--data-urlencode "limit=5000" \
--data-urlencode "format=json" > data.json

API 参数与媒体解密/转发由 chatlog 提供。


1)关键词合并表:把常见口头禅对齐成同义词,避免词云涂抹。 2)任务抽取规则:正则 + few-shot,针对「帮我」「记得」「今晚前」等语气词优化。 3)角色画像:按发言密度/影响力为群成员画像,识别“信息源头”。 4)Webhook 增量:配合 chatlog 的 Webhook,在有新消息时推送到你的中间件,做增量更新。 5)CSV/语音:新版本对 CSV 与语音工具链做过修复/增强,关注 Releases Changelog。


  • 只处理你自己合法拥有的数据。遵守隐私与所在平台条款;项目本身也强调这一点。
  • macOS 获取密钥需临时关闭 SIP,完成后可再开启。
  • 远程 MCP 仍在逐步放开,本地 STDIO 更稳;留意你账号与版本的能力。
  • MCP 连接命令格式 以官方文档为准,claude mcp add --transport http <name> <url>
  • MCP 概念/认证:用 Streamable HTTP + 标准认证方式,团队部署更安全。

六、进阶:一键换源 & 团队共享

Section titled “六、进阶:一键换源 & 团队共享”
  • Docker 部署 chatlog 到 NAS,预先写死 CHATLOG_WEBHOOK_* 环境变量,方便全家桶联动。
  • 团队用 Claude Connectors/MCP 目录 管理多数据源,非技术同学也能点点就连。

把聊天当数据,用 Claude Code 把它炼成团队可执行的日报。 每天 3 分钟浏览,省下的时间去做真正重要的事。

解读和分析 OpenAI 最新论文《人们如何使用ChatGPT》

引言:一场席卷全球的AI革命与我们的认知盲区

Section titled “引言:一场席卷全球的AI革命与我们的认知盲区”

2022年11月,OpenAI向公众发布了其划时代的产品——ChatGPT。该工具自面世以来,其普及速度令人瞠目结舌。国家经济研究局(NBER)的一份工作论文《人们如何使用ChatGPT》(NBER Working Paper 34255)指出,截至2025年7月,ChatGPT每周活跃用户已达到7亿,每日消息量超过25亿次,这相当于每秒钟就有约29,000条消息发出。这种前所未有的全球扩散速度,使其在短短几年内便被约10%的全球成年人口所采纳。然而,公众和媒体对这一现象的理解,往往停留在表面。多数人将ChatGPT视为一个用于内容创作、编程或简单聊天的工具,而其更深层次的社会、经济和人性影响仍隐藏在日常使用的表象之下。

本报告将以这份由OpenAI研究团队与NBER合作的开创性报告为核心,旨在进行一次全面的、多维度的深度解读与批判性分析。报告将超越论文本身的数据呈现,通过多方事实核查,理清不同研究和媒体报道间的矛盾之处,并从经济学、社会学和人类动机的视角,探讨这些数据背后所蕴含的深层趋势、因果关系以及对未来社会的潜在影响。最终,本报告将以通俗易懂的风格,为普通读者提供一个严谨且富有洞察的AI使用全景图。

第一部分:ChatGPT的现象级增长:事实与数据的多方验证

Section titled “第一部分:ChatGPT的现象级增长:事实与数据的多方验证”

1.1 核心数据与规模:AI扩散的史无前例

Section titled “1.1 核心数据与规模:AI扩散的史无前例”

NBER工作论文为我们提供了关于ChatGPT增长的核心数据。该报告显示,从2022年11月发布到2025年7月,其每周活跃用户数从最初的百万级增长至7亿。同时,日均消息量也从无到有,飙升至超过25亿次。这一增长速度不仅远超传统技术,如Facebook花费四年半才达到1亿用户,而且在AI技术领域也无出其右。其他第三方统计平台,如DemandSage、Nerdynav和Seoprofy,在2025年年中或9月发布的报告中,也进一步证实了这一现象。这些平台的数据指出,ChatGPT的每周活跃用户已达到或超过8亿,日查询量超过10亿次。

值得注意的是,NBER报告中的用户数(7亿)与第三方报告(8亿)存在细微差异。这种差异并非数据矛盾,而恰恰是AI技术前所未有的指数级增长速度的直接体现。该技术的发展如此之快,以至于任何一个静态的时间点快照都难以完全捕捉其动态全貌。报告在2025年7月的数据,在短短几周或几个月后就会被更高的数字所超越。这表明,在分析AI的影响时,必须采用动态而非静态的视角。这种速度本身,就是对经济和社会结构产生颠覆性影响的最有力信号。

1.2 非工作用途的崛起:AI价值的新视角

Section titled “1.2 非工作用途的崛起:AI价值的新视角”

长期以来,对AI的经济学分析主要集中在其对“带薪工作”生产力的影响上。然而,NBER报告通过其核心数据挑战了这一传统叙事。报告的 Table 1 清晰地展示了,从2024年6月到2025年6月,ChatGPT的非工作相关消息占比从53%激增至73%。这表明,尽管工作相关消息的绝对数量也在持续增长(从2024年6月的每日2.13亿条增至2025年6月的7.16亿条),但其增长速度被非工作用途远远超越。

这种价值的转移揭示了AI对人类社会更广阔的影响。AI的价值不仅体现在提高企业效率上,还通过“家庭生产”(home production)和“消费者剩余”(consumer surplus)为普通人创造了巨大价值。例如,Collis 和 Brynjolfsson(2025)的研究估算,仅在2024年,美国消费者通过生成式AI获得的剩余价值就高达970亿美元。这一发现表明,AI在提升个人生活质量、时间管理和非经济活动效率方面的规模,可能与它对职场生产力的影响相当,甚至更大。这种转变促使我们重新思考AI的真正价值所在:它正在从一个单纯的生产力工具,演变为一个深刻影响我们日常生活的“生活工具”。

第二部分:洞察用户行为:核心用途的解构与深层动因分析

Section titled “第二部分:洞察用户行为:核心用途的解构与深层动因分析”

2.1 “三驾马车”:实用指导、信息获取与写作的流行逻辑

Section titled “2.1 “三驾马车”:实用指导、信息获取与写作的流行逻辑”

NBER报告通过其创新的自动化分类方法,为我们提供了关于用户行为的细致洞察。报告指出,近80%的ChatGPT用户对话集中在三个核心类别中:实用指导(Practical Guidance)、信息获取(Seeking Information)和写作(Writing)。

其中,实用指导是目前最常见的用例,它包含了广泛的活动,如辅导和教学、操作指南、以及创意构思。特别值得关注的是,教育用途(如辅导/教学)在所有消息中占比高达10%,显示了AI在教育领域的巨大潜力。信息获取的用例正在迅速增长,并被视为传统搜索引擎的有力替代品。这反映了用户对即时、整合性答案的需求日益增长,而非仅仅是传统的链接列表。

为了更深入地理解用户的行为,报告提出了一个独特的分类框架:“Asking”(提问/寻求建议)与“Doing”(执行任务/创作)。数据显示,“Asking”类消息的增长速度超过“Doing”,且其用户满意度更高。这种趋势并非偶然。无论是寻求实用指导(“如何做饭?”),还是获取信息(“什么是量子力学?”),其核心驱动力都是为了更好地做出决策和更有效地获取和处理信息。这与NBER报告中“Asking”消息更受高学历和高收入用户青睐的发现相吻合,因为在知识密集型工作中,高质量的决策是提高生产力的关键。这一发现表明,ChatGPT的真正价值,可能更多在于其作为人类**“认知副驾驶”**来增强决策和认知能力,而非作为一个“替代劳动力”来自动化任务。

2.2 写作:一个被误读的工作核心价值

Section titled “2.2 写作:一个被误读的工作核心价值”

在所有工作相关的消息中,写作是占比最高的用例,平均占到40%。这一数据似乎印证了许多人关于AI将完全取代人类写作者的担忧。然而,该报告深入揭示了一个关键细节:在所有的“写作”类消息中,约有三分之二的任务并非“从零开始”的创作,而是对用户提供的文本进行修改、编辑、总结和翻译。

这一发现与普遍观点形成了微妙的对比。它表明,在实际工作中,AI的作用更像是“优化”而非“取代”。它帮助人类精炼已有的思想和内容,而非完全取而代之。这一发现与 IBM、Moveworks 等公司报告中的企业级AI用例相呼应。这些用例强调AI在内容创作中的辅助性作用,如生成广告文案草稿、邮件初稿,或从冗长文档中提取关键信息。这表明,未来的工作流将是“人机协同”的,AI解放了人类在重复性、低价值的“写作”任务上的精力,使其能更专注于高层次的思考、策略和创意。

第三部分:纠偏与反思:争议性用途的真相与认知偏差

Section titled “第三部分:纠偏与反思:争议性用途的真相与认知偏差”

3.1 编程与陪伴:被媒体放大的用例与数据真相

Section titled “3.1 编程与陪伴:被媒体放大的用例与数据真相”

在某些特定用例的普及程度上,NBER报告的发现与一些主流媒体叙事存在显著差异,这揭示了平台定位与认知偏差的复杂现实。

首先是编程用例。NBER报告指出,在ChatGPT上,编程相关消息仅占所有消息的4.2%。这与 Handa 等人对另一款AI助手 Claude 的研究形成了鲜明对比,后者显示编程相关用例在工作场景中高达33%。

其次是情感陪伴。NBER报告发现,情感陪伴(关系与个人反思)仅占1.9%,游戏与角色扮演占0.4%,总计非常小。这与 Zao-Sanders 和许多媒体报道中将情感陪伴列为AI主要用例的说法大相径庭。

为什么会出现如此巨大的数据鸿沟?一个主要原因是平台定位和用户群体的差异。Anthropic 的 Claude 平台在设计上更偏向技术和企业级用户,而微软的 Copilot 则深度集成于 Microsoft 365 等办公软件中。相比之下,ChatGPT 作为一个通用的消费级平台,其用户画像更为广泛,导致编程等垂直领域的用例占比相对较低。此外,关于AI情感陪伴、虚拟女友或“危险”交互的媒体报道,常常因为其耸人听闻的性质而获得不成比例的关注度。这种“幸存者偏差”导致了公众对这些用例普遍性的严重高估。NBER报告通过大规模、匿名的第一手数据,为我们提供了更接近事实的全景图,即这些用例在消费者端仍属小众。

3.2 性别与年龄差距:动态变化的社会图景

Section titled “3.2 性别与年龄差距:动态变化的社会图景”

关于AI用户群体的人口构成,尤其是性别差距,也存在着不同研究间的微妙差异。NBER报告指出,在ChatGPT发布初期(2022年末),用户群体确实以男性为主,其中80%的活跃用户拥有典型的男性名字。然而,报告显示这是一个正在迅速变化的动态趋势。到2025年6月,该比例已降至48%,女性用户甚至略多。这一趋势与AI在低收入国家用户增长加速的发现相吻合。

然而,其他第三方报告,如 Deloitte、Pew Research 和 eWeek 在2025年的研究中,仍指出AI存在显著的性别差距,男性用户占比约为65%。两种看似矛盾的结论背后,是不同的研究方法和数据源。NBER报告基于第一方平台数据,能够精准追踪用户群体的动态变化(新用户的性别构成)。而其他研究则多基于第三方流量分析或问卷调查,这些方法可能存在偏差,其结果更多反映了历史上男性用户积累的存量。NBER 的数据描绘了一个动态趋势,即AI的普及正在通过新用户的加入,逐步纠正早期的性别失衡。这一过程正在克服诸如女性对AI工具认知度较低、缺乏信心、以及对“作弊”的道德顾虑等社会文化障碍。

第四部分:方法论的审视:超越数据本身

Section titled “第四部分:方法论的审视:超越数据本身”

NBER报告的突出之处不仅在于其数据结论,更在于其独特且创新的研究方法论。报告独创性地采用了“隐私保护自动化分类”(Automated Classification)和“数据清洗室”(Data Clean Room, DCR)协议。

这种方法解决了以往研究中“隐私保护”与“大规模、细粒度数据分析”之间的核心矛盾。报告利用大型语言模型(LLM)而非人工,对匿名且去隐私化的对话内容进行分类,确保人类研究人员从始至终都无法看到用户消息内容。在分析职业、教育等敏感数据时,研究团队则采用严格的 DCR 协议,通过限制查询结果(如分组需超过100个用户)来进一步保障用户隐私。这一方法论的创新为未来AI行为研究树立了新的行业标准,实现了在不牺牲用户隐私的前提下获取大规模行为数据的目标。

尽管NBER报告具有开创性,但其分析也存在固有局限性。报告明确指出,其分析样本仅限于ChatGPT的消费者计划(Free, Plus, Pro),并未包含企业级应用(Business, Enterprise)或 API 用量。

这一局限性至关重要,因为它意味着报告所描绘的图景仅代表了AI影响的“冰山一角”。企业用户和消费者在动机、需求和用例上存在根本差异。企业更关注“自动化”“数据安全”和“可定制化”的高价值用例。相比于消费者版本中以“实用指导”和“信息获取”为主的“认知副驾驶”模式,企业版AI(如 ChatGPT Enterprise 或 Claude API)则更多用于代码生成、文档摘要、客户服务自动化等直接的“自动化”任务。因此,NBER报告所描绘的消费者行为图谱,无法完全反映AI在整个经济体系中的多重角色。

总结与展望:趋势、挑战与未来洞察

Section titled “总结与展望:趋势、挑战与未来洞察”
  • AI的普及速度史无前例,其价值正在从职场生产力向更广泛的个人生活效率和消费者剩余转移。
  • AI在用户端的核心价值并非“替代人类”,而是通过“实用指导”和“信息获取”等方式,充当帮助人类决策和解决问题的“认知副驾驶”。
  • 关于AI用例(如编程、情感陪伴)和用户群体(如性别差距)的媒体叙事,与大规模数据所揭示的事实存在显著偏差,这反映了平台定位分化与公众认知滞后的复杂现实。
  • AI研究方法论正在进步,但现有研究仍有其固有局限性,特别是无法完全反映消费者版与企业版AI用例的根本差异。
  • 对经济的影响:AI的“认知副驾驶”模式将重塑知识密集型工作。其核心价值将是增强人类的判断力,而非取代劳动力。这将催生对“批判性思维”“提问能力”等人类软技能的新需求。
  • 对社会的影响:随着AI在低收入国家和女性群体中的普及,它有望成为缩小数字鸿沟和性别差距的新工具。然而,潜在的偏见和数据隐私风险仍需警惕。
  • 对未来的展望:趋势表明,我们正在从一个AI是“技术”的时代,步入一个AI是**“生活方式”**的时代。未来,AI将不仅是提升工作效率的工具,更是个人成长、生活管理与决策支持不可或缺的一部分。我们必须以批判性、动态性的视角理解与适应这一变革,而非被静态数字与片面叙事所误导。AI的未来,将由人类如何与其协同工作与生活来共同书写。

Claude Code 生成 Flutter 多环境 Flavors 实战:一套代码,多个环境跑/构建

想要在一个 Flutter 代码仓里同时维护开发版(dev)、预发布(staging/TestFlight)、生产版(prod)?最稳妥的方式就是用 flavors。

本文用一套最小可行的实践,带你用 Claude Code:

  • 跑起多个 flavor(dev/staging/prod)
  • Android/iOS 侧完成必要配置
  • 在 Dart 代码里依据 flavor 切换接口、日志、监控、图标等
  • 命令行与 CI 构建范式一把梭

——写完即可复制到日常项目里用。


  • Android productFlavors:在 Gradle 中声明不同环境(applicationId 后缀、资源替换、签名、图标)。
  • iOS Schemes + Build Configurations:为 dev/staging/prod 建独立 Scheme,并指向对应的 Build Configuration 与 Bundle ID。
  • Dart --dart-define:把环境变量注入到代码里(如 BASE_URL、SENTRY_DSN)。
  • 多入口文件:lib/main_dev.dartlib/main_staging.dartlib/main_prod.dart,各自初始化。
【Claude Code 分步提示|名词与方案对齐】
目标:在现有 Flutter 应用中,采用“多入口 + Android productFlavors + iOS Schemes + dart-define”组合,建立 dev/staging/prod 三套运行与构建路径。
请先梳理本仓库现状:
- 是否已有 `lib/main_*.dart`、`android/app/build.gradle` 的 `productFlavors`、iOS Schemes?
- 若未配置,输出最小改动计划(列出将新增/修改的文件清单)。
输出:一份实施清单(按 Dart → Android → iOS → CI 顺序),每项可复制执行。

创建 lib/flavor.dart

lib/flavor.dart
enum AppFlavor { dev, staging, prod }
class FlavorConfig {
final AppFlavor flavor;
final String name;
final String baseUrl;
const FlavorConfig._(this.flavor, this.name, this.baseUrl);
static late FlavorConfig instance;
static void init({required AppFlavor flavor}) {
switch (flavor) {
case AppFlavor.dev:
instance = const FlavorConfig._(
AppFlavor.dev, 'DEV', 'https://dev-api.example.com',
);
break;
case AppFlavor.staging:
instance = const FlavorConfig._(
AppFlavor.staging, 'STG', 'https://staging-api.example.com',
);
break;
case AppFlavor.prod:
instance = const FlavorConfig._(
AppFlavor.prod, 'PROD', 'https://api.example.com',
);
break;
}
}
static bool get isProd => instance.flavor == AppFlavor.prod;
}

入口文件按环境拆分:

lib/main_dev.dart
import 'package:flutter/material.dart';
import 'flavor.dart';
import 'src/app.dart';
void main() async {
WidgetsFlutterBinding.ensureInitialized();
FlavorConfig.init(flavor: AppFlavor.dev);
runApp(const MyApp());
}
lib/main_staging.dart
import 'package:flutter/material.dart';
import 'flavor.dart';
import 'src/app.dart';
void main() async {
WidgetsFlutterBinding.ensureInitialized();
FlavorConfig.init(flavor: AppFlavor.staging);
runApp(const MyApp());
}
lib/main_prod.dart
import 'package:flutter/material.dart';
import 'flavor.dart';
import 'src/app.dart';
void main() async {
WidgetsFlutterBinding.ensureInitialized();
FlavorConfig.init(flavor: AppFlavor.prod);
runApp(const MyApp());
}

在代码中按环境分流行为(示例):

// 任意位置使用
final apiBase = FlavorConfig.instance.baseUrl;
final showDebugBanner = !FlavorConfig.isProd;
// 例如:只在 prod 打开 Crashlytics/Sentry
Future<void> setupMonitoring() async {
if (FlavorConfig.isProd) {
// await FirebaseCrashlytics.instance.setCrashlyticsCollectionEnabled(true);
// await SentryFlutter.init(...);
}
}

也可用 dart-define 注入(无需多入口):

lib/env.dart
class Env {
static const flavor = String.fromEnvironment('FLAVOR', defaultValue: 'dev');
static const baseUrl = String.fromEnvironment(
'BASE_URL', defaultValue: 'https://dev-api.example.com',
);
}

运行时传入:

Terminal window
flutter run -t lib/main.dart \
--dart-define=FLAVOR=staging \
--dart-define=BASE_URL=https://staging-api.example.com
# 或使用文件(Flutter 3.10+)
flutter run -t lib/main.dart \
--dart-define-from-file=flavors/dev.json

flavors/dev.json 示例:

{
"FLAVOR": "dev",
"BASE_URL": "https://dev-api.example.com",
"SENTRY_DSN": "https://examplePublicKey@o0.ingest.sentry.io/0"
}

两种方式都常用:多入口文件更直观,dart-define 更轻量。生产项目可二者结合。

【Claude Code 分步提示|Dart 初始化】
在当前 Flutter 工程中:
1. 新建 `lib/flavor.dart`,包含 `AppFlavor` 与 `FlavorConfig`(按文中示例实现)。
2. 新建 `lib/main_dev.dart`、`lib/main_staging.dart`、`lib/main_prod.dart`,各自调用 `FlavorConfig.init(...)` 后 `runApp(MyApp)`。
3. 若不存在 `lib/src/app.dart`,创建一个最小 `MyApp`(`MaterialApp(debugShowCheckedModeBanner: !FlavorConfig.isProd, ...)`)。
4. 可选新建 `lib/env.dart`,用于 `--dart-define` 方式。
5. 生成“运行验证脚本”(bash):分别以 dev/staging/prod 运行一次,并在日志中打印 `FlavorConfig.instance` 与 `BASE_URL`。
结果:给出所有新增/修改文件的补丁与本地验证命令。

编辑 android/app/build.gradle(Groovy 示例):

android {
namespace "com.example.myapp"
defaultConfig {
applicationId "com.example.myapp"
minSdkVersion 23
targetSdkVersion 34
versionCode 100
versionName "1.0.0"
}
buildTypes {
debug { }
release {
minifyEnabled true
shrinkResources true
proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro'
signingConfig signingConfigs.release
}
}
// 关键:定义口味维度与口味
flavorDimensions "env"
productFlavors {
dev {
dimension "env"
applicationIdSuffix ".dev"
versionNameSuffix "-dev"
resValue "string", "app_name", "MyApp Dev"
manifestPlaceholders = [appLabel: "MyApp Dev"]
}
staging {
dimension "env"
applicationIdSuffix ".staging"
versionNameSuffix "-stg"
resValue "string", "app_name", "MyApp Staging"
manifestPlaceholders = [appLabel: "MyApp Staging"]
}
prod {
dimension "env"
resValue "string", "app_name", "MyApp"
manifestPlaceholders = [appLabel: "MyApp"]
}
}
// 可选:按 flavor 使用不同资源目录(图标/字符串)
sourceSets {
dev { res.srcDirs = ["src/dev/res"] }
staging { res.srcDirs = ["src/staging/res"] }
prod { res.srcDirs = ["src/prod/res"] }
}
}

AndroidManifest.xml 使用 @string/app_name 作为应用名:

<application
android:label="@string/app_name"
android:icon="@mipmap/ic_launcher">
...
</application>

运行/构建命令:

Terminal window
# 运行各环境
flutter run --flavor dev -t lib/main_dev.dart
flutter run --flavor staging -t lib/main_staging.dart
flutter run --flavor prod -t lib/main_prod.dart
# 构建 APK / AppBundle
flutter build apk --flavor prod -t lib/main_prod.dart
flutter build appbundle --flavor prod -t lib/main_prod.dart
# 对应的 Gradle 任务名(了解即可)
./gradlew assembleDevDebug
./gradlew assembleStagingRelease
./gradlew bundleProdRelease

小贴士:AGP 8+ 需要在 android { namespace "..." } 指定 namespace

【Claude Code 分步提示|Android Flavors】
在 `android/app/build.gradle`:
1. 增加 `flavorDimensions "env"` 与 `productFlavors { dev {...} staging {...} prod {...} }`。
2. dev/staging 设置 `applicationIdSuffix`、`versionNameSuffix`;三者设置 `resValue("string", "app_name", ...)`。
3. 在 `android {}` 顶层确保 `namespace` 存在(AGP 8+ 必需)。
4. 建立 `src/dev/res`、`src/staging/res`、`src/prod/res`,各放 `values/strings.xml` 覆盖 `app_name`(可选不同图标)。
5. 确认 `AndroidManifest.xml` 应用名引用 `@string/app_name`。
6. 输出命令:`flutter run --flavor dev -t lib/main_dev.dart` 等;以及 `./gradlew tasks | rg assemble` 校验任务。
产出:补丁、资源目录与验证步骤。

3) iOS:配置 Schemes 与 Build Configurations

Section titled “3) iOS:配置 Schemes 与 Build Configurations”

在 Xcode:

  1. 复制 Runner Scheme,分别命名为 devstagingprod
  2. 为每个 Scheme 选择对应的 Build Configuration(建议:Debug-devRelease-devDebug-stagingRelease-stagingDebug-prodRelease-prod)。
  3. 给每个配置设置不同的 Bundle ID(如 com.example.myapp.dev)。

使用 xcconfig 让配置更直观(可选):

ios/Config/Dev.xcconfig
ios/Config/Staging.xcconfig
ios/Config/Prod.xcconfig

Dev.xcconfig 示例:

PRODUCT_BUNDLE_IDENTIFIER = com.example.myapp.dev
DISPLAY_NAME = MyApp Dev
// 其他:API_KEY/SENTRY_DSN 等也可写入,注意不要提交敏感值

Info.plist 中显示名指向:

<key>CFBundleDisplayName</key>
<string>$(DISPLAY_NAME)</string>

运行/构建命令:

Terminal window
flutter run --flavor dev -t lib/main_dev.dart
flutter build ios --flavor prod -t lib/main_prod.dart
# 如果遇到 scheme 未匹配,确保 Xcode 里的 Scheme 名称与 --flavor 值完全一致
【Claude Code 分步提示|iOS Schemes】
目标:创建 `dev/staging/prod` 三个 Scheme,并各对应 Build Configuration 与 Bundle ID。
步骤:
1. 生成/更新 `ios/Config/Dev.xcconfig`、`Staging.xcconfig`、`Prod.xcconfig`(写入 `PRODUCT_BUNDLE_IDENTIFIER`、`DISPLAY_NAME`)。
2. 修改 `Info.plist`:`CFBundleDisplayName` → `$(DISPLAY_NAME)`。
3. 在 Xcode 复制 Scheme 并绑定到对应的 Build Configuration(命名建议见正文)。
4. 验证:`flutter run --flavor dev -t lib/main_dev.dart`、`flutter build ios --no-codesign --flavor prod -t lib/main_prod.dart`。
请输出新增/修改文件内容与图形界面操作要点。

以下是日常软件项目最常见的分环境诉求与落地写法。

【Claude Code 分步提示|应用到业务代码】
1. 网络层:将 `Dio`/`http` 的 `baseUrl` 改为 `FlavorConfig.instance.baseUrl`。
2. 日志:实现 `setupLogging()`,在 `main_*` 调用;非 prod 使用更详细的日志级别。
3. 监控:实现 `setupMonitoring()`,按 `FlavorConfig.isProd` 条件初始化 Sentry/Crashlytics(DSN 用 `--dart-define` 注入)。
4. UI:创建 `EnvBanner`,在根部包裹应用,非 prod 显示 `DEV/STG` 角标。
5. 图标与启动页:为每个 flavor 配置 `flutter_launcher_icons`/`flutter_native_splash` 并生成。
输出:对应补丁与“冒烟测试”脚本(依次运行 dev/staging/prod,验证 API 地址、角标、日志等级)。
// 依赖注入处:
final dio = Dio(BaseOptions(baseUrl: FlavorConfig.instance.baseUrl));
void setupLogging() {
if (FlavorConfig.isProd) {
Logger.level = Level.warning; // 生产少打日志
} else {
Logger.level = Level.debug; // 开发环境详细
}
}

3) 监控与崩溃收集(Sentry / Crashlytics)

Section titled “3) 监控与崩溃收集(Sentry / Crashlytics)”
Future<void> setupMonitoring() async {
if (FlavorConfig.isProd) {
// SentryFlutter.init((options) {
// options.dsn = const String.fromEnvironment('SENTRY_DSN');
// });
}
}

命令传参:

Terminal window
flutter run --flavor staging -t lib/main_staging.dart \
--dart-define=SENTRY_DSN=... --dart-define=BASE_URL=...
  • flutter_launcher_icons 按 flavor 生成不同图标:
pubspec.yaml
flutter_launcher_icons:
flavors:
dev:
image_path: assets/icons/dev.png
staging:
image_path: assets/icons/staging.png
prod:
image_path: assets/icons/prod.png
Terminal window
flutter pub run flutter_launcher_icons:main -f pubspec.yaml
  • 启动页 flutter_native_splash 也支持多 flavor(同理配置)。

为每个环境配置独立的 Firebase 项目与 GoogleService-Info.plist / google-services.json

Terminal window
flutterfire configure \
--project=myapp-dev \
--ios-bundle-id=com.example.myapp.dev \
--android-package-name=com.example.myapp.dev

把生成的 firebase_options.dart 按环境拆分或在初始化时按 FlavorConfig 选择。

6) UI 内显式环境标识(避免误操作)

Section titled “6) UI 内显式环境标识(避免误操作)”
class EnvBanner extends StatelessWidget {
final Widget child;
const EnvBanner({super.key, required this.child});
@override
Widget build(BuildContext context) {
if (FlavorConfig.isProd) return child;
final label = FlavorConfig.instance.name; // DEV / STG
return Banner(
message: label,
location: BannerLocation.topStart,
child: child,
);
}
}

Terminal window
# 运行
flutter run --flavor dev -t lib/main_dev.dart
flutter run --flavor staging -t lib/main_staging.dart
flutter run --flavor prod -t lib/main_prod.dart
# 构建 Android
flutter build apk --flavor prod -t lib/main_prod.dart
flutter build appbundle --flavor prod -t lib/main_prod.dart
# 构建 iOS(Xcode 需已创建同名 scheme)
flutter build ios --flavor prod -t lib/main_prod.dart
# dart-define 方式(单入口)
flutter run -t lib/main.dart \
--dart-define=FLAVOR=staging \
--dart-define=BASE_URL=https://staging-api.example.com
【Claude Code 分步提示|命令与脚本化】
在项目根新增 `Makefile` 或 `scripts/`:
- `run-dev` / `run-staging` / `run-prod`
- `build-android-prod`(AAB)与 `build-ios-prod`
如使用 fvm,将 `flutter` 替换为 `fvm flutter`。
输出:新增文件内容与在 macOS/Linux 下的执行示例。

name: build
on: [push]
jobs:
android:
runs-on: ubuntu-latest
strategy:
matrix:
flavor: [dev, staging, prod]
steps:
- uses: actions/checkout@v4
- uses: subosito/flutter-action@v2
with: { flutter-version: '3.22.0' }
- run: flutter pub get
- run: flutter build appbundle --flavor ${{ matrix.flavor }} -t lib/main_${{ matrix.flavor }}.dart
- uses: actions/upload-artifact@v4
with:
name: aab-${{ matrix.flavor }}
path: build/app/outputs/bundle/**/**.aab
ios:
runs-on: macos-14
strategy:
matrix:
flavor: [prod] # 示例:只发生产包
steps:
- uses: actions/checkout@v4
- uses: subosito/flutter-action@v2
with: { flutter-version: '3.22.0' }
- run: flutter pub get
- run: flutter build ios --no-codesign --flavor ${{ matrix.flavor }} -t lib/main_${{ matrix.flavor }}.dart
- uses: actions/upload-artifact@v4
with:
name: ios-${{ matrix.flavor }}
path: build/ios/iphoneos/*.ipa
【Claude Code 分步提示|CI 配置】
1. 在 `.github/workflows/build.yml` 写入上述矩阵构建(Android dev/staging/prod,iOS 仅 prod)。
2. 若需签名/发布,预留 `secrets`,并注释说明配置方法。
3. 使用 `actions/cache` 缓存 Flutter/pub 依赖。
输出:Workflow 文件与一次运行的期望产物说明(AAB/IPA 路径)。

  • iOS 运行报找不到 Scheme:确认 Xcode 中的 Scheme 名与 --flavor 完全一致。
  • Android 构建找不到任务:assemble<Flavor><BuildType> 大小写要对(如 assembleDevDebug)。
  • 图标/名称无变化:检查是否使用了 @string/app_name,以及各 flavor 的 resValue 或资源目录是否生效。
  • AGP 8+ 报 namespace:在 android { namespace "..." } 指定 namespace
  • 机密管理:dart-define 用在 CI 时避免把密钥写进仓库;本地 .env 不要入库。
【Claude Code 分步提示|故障排查】
请生成一个“自检脚本”(bash),顺序执行:
1. Android:`./gradlew :app:dependencies` 确认 flavors;`./gradlew tasks | rg assemble` 列出 assemble 任务。
2. iOS:`xcodebuild -list -workspace ios/Runner.xcworkspace -scheme dev` 确认 scheme;失败则回显修复步骤。
3. Flutter:分别运行 dev/staging/prod,在控制台输出应用标题与 BASE_URL。
输出:脚本内容与常见错误的诊断分支(namespace 缺失、资源未覆盖、scheme 拼写错误等)。

使用 Claude Code 快速实现 Flavors 配置

Section titled “使用 Claude Code 快速实现 Flavors 配置”

Claude Code 可以帮你在几分钟内完成上述所有配置。以下是高效的提示词模板:

请帮我为 Flutter 项目配置多环境 Flavors,需要支持 dev、staging、prod 三个环境:
项目信息:
- 包名:com.example.myapp
- 应用名:MyApp
- 环境配置:
- dev: https://dev-api.example.com
- staging: https://staging-api.example.com
- prod: https://api.example.com
需要实现:
1. 创建 Dart 侧的 Flavor 配置类和多入口文件
2. 配置 Android productFlavors(不同包名后缀、应用名)
3. 配置 iOS Schemes(需要生成 xcconfig 文件)
4. 为每个环境设置不同的应用图标(dev 带角标)
5. 添加环境标识 Banner(非生产环境显示)
6. 配置 Firebase 多项目支持
7. 生成运行和构建的命令脚本
8. 创建 CI/CD 配置(GitHub Actions)
创建 Flutter Flavors 基础结构:
- lib/config/flavor_config.dart:定义 AppFlavor 枚举和 FlavorConfig 类
- lib/main_dev.dart、lib/main_staging.dart、lib/main_prod.dart:三个入口文件
- 支持环境变量注入(BASE_URL、APP_NAME、ENABLE_LOGS)
配置 Android productFlavors:
- 在 android/app/build.gradle 中添加 flavorDimensions 和 productFlavors
- dev 环境:applicationIdSuffix ".dev",应用名 "MyApp Dev"
- staging 环境:applicationIdSuffix ".staging",应用名 "MyApp Staging"
- prod 环境:无后缀,应用名 "MyApp"
- 为每个 flavor 创建独立的资源目录结构
配置 iOS Schemes 和 Build Configurations:
1. 生成 xcconfig 文件(Dev.xcconfig、Staging.xcconfig、Prod.xcconfig)
2. 创建配置步骤说明:如何在 Xcode 中复制 Scheme
3. 设置不同的 Bundle ID 和显示名称
4. 处理 Info.plist 中的环境变量引用
实现环境特定功能:
1. 创建 EnvBanner widget,非生产环境显示环境标识
2. 配置日志级别控制(dev: verbose, staging: debug, prod: warning)
3. 添加 Sentry/Crashlytics 初始化(仅生产环境启用)
4. 实现 API 拦截器,自动附加环境特定的 headers
配置多环境图标和启动页:
1. 设置 flutter_launcher_icons 配置,为每个 flavor 生成不同图标
2. dev 图标右上角添加 "DEV" 标记
3. staging 图标右上角添加 "STG" 标记
4. 配置 flutter_native_splash 为每个环境设置不同启动页
配置 Firebase 多项目支持:
1. 为每个环境创建独立的 Firebase 项目配置
2. 生成 firebase_options_dev.dart、firebase_options_staging.dart、firebase_options_prod.dart
3. 在入口文件中根据环境初始化对应的 Firebase 配置
4. 设置 Crashlytics 和 Analytics 的环境区分
创建便捷运行脚本 scripts/run_flavors.sh:
- run_dev: 运行开发环境
- run_staging: 运行预发布环境
- run_prod: 运行生产环境
- build_all: 构建所有环境的 APK
- build_ios_all: 构建所有环境的 iOS
包含参数传递和错误处理
创建 GitHub Actions 工作流 .github/workflows/build.yml:
1. 矩阵构建策略,并行构建所有 flavors
2. Android: 生成 AAB 文件并上传 artifacts
3. iOS: 在 macOS runner 上构建 IPA
4. 自动版本号管理(基于 git tag)
5. 发布到 Google Play 和 App Store Connect(prod flavor)
添加 Flavors 调试和测试支持:
1. 创建测试配置,确保每个 flavor 的单元测试独立运行
2. 添加集成测试,验证不同环境的 API 连接
3. 实现环境切换功能(仅 debug 模式)
4. 创建环境配置检查工具,验证所有配置正确
检查并修复 Flutter Flavors 常见问题:
1. iOS Scheme not found 错误
2. Android Gradle 任务找不到
3. 图标没有按环境变化
4. Bundle ID 冲突
5. Firebase 配置未正确加载
提供详细的错误信息和解决方案

使用 Claude Code 时的最佳实践:

  1. 分步执行:不要一次性要求所有配置,分步骤逐个实现
  2. 提供上下文:告诉 Claude Code 你的项目结构和现有配置
  3. 验证输出:每完成一步都运行测试,确保配置正确
  4. 保存模板:将成功的配置保存为模板,方便后续项目复用

示例对话:

用户:我有一个 Flutter 电商项目,需要配置三个环境的 Flavors
Claude Code:我来帮您配置 Flutter Flavors。首先让我了解一下项目情况:
1. 您的包名是什么?
2. 三个环境的 API 地址分别是?
3. 需要使用 Firebase 吗?
[根据回答生成完整配置]
用户:配置完成后,dev 环境运行报错 "Scheme not found"
Claude Code:这是 iOS Scheme 配置问题。让我检查并修复:
[自动诊断并提供解决方案]

用好 Flutter Flavors,等于把”多环境治理”变成第一等公民:

  • 本地跑 dev,提测走 staging,上线打 prod
  • 代码里按环境切接口、日志、监控与 UI 提示
  • CI 一键出全矩阵制品

配合 Claude Code 的智能提示,你可以在几分钟内完成原本需要几小时的配置工作。拎起本文清单照做,你的项目即可在一套代码下稳定支撑多环境协作与发布。

使用 Claude Code 处理 Git 分支合并与冲突解决

在现代软件开发中,Git 分支合并和冲突解决是日常工作的重要组成部分。Claude Code 作为一个智能化的开发助手,能够显著提升处理这些任务的效率。本文将通过实际案例,详细介绍如何使用 Claude Code 处理各种合并场景。

Claude Code 在 Git 操作方面的主要优势:

  • 智能冲突分析:自动识别冲突原因并提供最优解决方案
  • 批量操作支持:同时处理多个文件的冲突
  • 代码语义理解:基于代码逻辑而非仅文本差异来解决冲突
  • 自动化测试验证:合并后自动运行测试确保代码正确性

示例 1:功能分支合并与简单冲突解决

Section titled “示例 1:功能分支合并与简单冲突解决”

你正在开发一个 React 应用,feature/user-auth 分支实现了用户认证功能,需要合并到 main 分支。两个分支都修改了 App.tsx 文件。

用户:请帮我将 feature/user-auth 分支合并到 main,并解决可能的冲突
Claude Code 响应:
我来帮您完成分支合并。首先让我检查当前状态:
[执行 git status 和 git branch -a]
[执行 git checkout main]
[执行 git pull origin main]
[执行 git merge feature/user-auth]
发现冲突在 src/App.tsx 文件中。让我分析冲突内容:
冲突区域:
- main 分支:添加了新的导航组件
- feature/user-auth 分支:添加了认证包装器
这两个更改是互补的,我将保留双方更改:
[自动编辑 App.tsx,智能整合两部分代码]
[执行 git add src/App.tsx]
[运行 npm test 验证]
[执行 git commit]
合并完成!所有测试通过。新的 App.tsx 现在包含了导航组件和认证功能。
  • Claude Code 自动识别冲突是功能互补而非互斥
  • 智能整合代码而非简单的文本拼接
  • 自动运行测试验证合并正确性

示例 2:复杂的多文件冲突与依赖关系处理

Section titled “示例 2:复杂的多文件冲突与依赖关系处理”

在一个 Node.js 微服务项目中,feature/database-migration 分支更新了数据库架构,而 main 分支同时添加了新的 API 端点。冲突涉及多个文件和包依赖。

用户:合并 feature/database-migration 到 main,这个分支修改了数据库模型
Claude Code 响应:
我将系统地处理这个复杂合并。让我先分析影响范围:
[执行 git diff main...feature/database-migration --name-only]
检测到以下文件有潜在冲突:
- package.json (依赖版本冲突)
- src/models/User.js (模型结构变更)
- src/controllers/UserController.js (API 逻辑冲突)
- migrations/20240315_user_table.sql (数据库迁移脚本)
开始合并处理:
1. 处理 package.json 依赖冲突:
- 保留较新版本的 mongoose: ^7.0.3
- 合并新增的 migration 工具依赖
[自动编辑 package.json]
2. 处理 User 模型冲突:
- 整合新字段定义
- 更新验证规则
- 保持向后兼容性
[智能重构 User.js]
3. 更新 UserController 以适配新模型:
- 调整查询逻辑
- 更新响应格式
[自动修改控制器代码]
4. 验证数据库迁移脚本:
- 确保迁移顺序正确
- 添加回滚脚本
[创建补充迁移文件]
[执行 npm install]
[执行 npm run migrate]
[执行 npm test]
所有冲突已解决,测试通过!建议在部署前进行集成测试。
  • 处理跨文件的依赖关系
  • 自动识别需要同步修改的关联文件
  • 生成必要的迁移和回滚脚本

示例 3:热修复分支的紧急合并与 Bug 修复

Section titled “示例 3:热修复分支的紧急合并与 Bug 修复”

生产环境发现严重 bug,hotfix/payment-calculation 分支包含修复,但与正在开发的 develop 分支有冲突,需要同时合并到 maindevelop

用户:紧急!需要将 hotfix/payment-calculation 合并到 main 和 develop,
这个修复了支付计算的严重 bug
Claude Code 响应:
理解这是紧急修复,我将优先确保正确性。执行以下操作:
阶段 1:合并到 main(生产环境)
[执行 git checkout main]
[执行 git merge --no-ff hotfix/payment-calculation]
检测到 src/services/PaymentService.js 有冲突:
- hotfix 修复了计算公式错误
- main 分支有格式化更改
保留修复并应用格式化:
[智能合并代码,保持修复逻辑的同时应用代码格式]
验证修复:
[创建针对性测试用例验证 bug 修复]
[执行 npm run test:payment]
阶段 2:合并到 develop(避免回归)
[执行 git checkout develop]
[执行 git merge hotfix/payment-calculation]
发现更复杂的冲突:
- develop 分支正在重构支付模块
- 需要将修复适配到新架构
智能适配修复到新架构:
[分析新架构,将修复逻辑移植到相应位置]
[更新相关的单元测试]
[添加回归测试防止 bug 重现]
阶段 3:验证和文档
[执行完整测试套件]
[生成修复报告]
修复已成功应用到两个分支!
关键变更总结:
- 修复了浮点数精度导致的计算错误
- 添加了 BigDecimal 处理金额计算
- 增加了边界条件测试覆盖
建议立即部署到生产环境。
  • 优先级处理和风险评估
  • 在不同代码架构间移植修复
  • 自动生成回归测试防止问题重现
用户:在合并前帮我预览可能的冲突
Claude Code:
[执行 git merge --no-commit --no-ff feature/branch]
[分析冲突文件并提供解决建议]
[执行 git merge --abort 撤销预览]
用户:这个文件的冲突应该接受哪边的更改?
Claude Code:
通过分析代码语义和测试覆盖,建议:
- API 路由文件:接受两边更改(功能累加)
- 配置文件:接受 feature 分支(新配置项)
- 样式文件:需要手动审查(视觉影响)
Claude Code 自动执行:
- 静态代码分析
- 单元测试运行
- 集成测试验证
- 代码覆盖率检查
- 性能基准测试

Claude Code 会识别二进制文件并提供选项:

  • 保留特定版本
  • 重新生成文件
  • 手动选择文件版本
Claude Code 支持:
- git reset --hard HEAD~1(未推送时)
- git revert -m 1 <merge-commit>(已推送时)
- 自动创建修复分支

Claude Code 能够:

  • 识别 submodule 版本冲突
  • 建议合适的 commit 版本
  • 更新 .gitmodules 配置
  1. 批量冲突解决:Claude Code 可以并行处理多个文件的冲突
  2. 智能合并策略:根据文件类型自动选择合并策略
  3. 缓存利用:利用 Git 的 rerere 功能记住冲突解决方案

Claude Code 将 Git 分支合并从繁琐的手工作业转变为智能化、自动化的流程。通过理解代码语义、自动化测试验证和智能冲突解决,显著提升了开发效率和代码质量。

关键优势:

  • 减少 80% 的冲突解决时间
  • 自动化测试保证合并质量
  • 智能建议避免常见错误
  • 完整的操作历史追踪

在实际项目中,建议将 Claude Code 整合到 CI/CD 流程中,实现更高程度的自动化。记住,虽然 Claude Code 很强大,但关键的架构决策仍需要人工审查和确认。

用 Claude Code 生成 Flutter Android 编译构建的 APK 命名规则

想要 APK 一眼就看懂:渠道、环境、版本、分支、时间戳。 不用手改。

让 Claude Code 自动把这套命名规则写进 android/app/build.gradle,打包就出成品。

我用的命名例子:测试A软件App-release-v1.0+1-main-20250918-102530.apk 包含:应用名 + 构建类型 + 版本名/码 + Git 分支 + 时间戳。

(Flutter 官方打包路径与 Gradle 配置参考见 docs,后面附了出处)


用 Claude Code:一条提示词,帮你自动改好 build.gradle

Section titled “用 Claude Code:一条提示词,帮你自动改好 build.gradle”

把下面这些可直接复制的提示词,喂给 Claude Code(任选其一):

「快速改名」Prompt

你是 Android/Flutter 构建工程师。请在我的 Flutter 项目
android/app/build.gradle (Groovy) 中加入:
1) getGitBranchName(),优先 git rev-parse,兜底读取 env GIT_BRANCH;
2) 解析 -Pdart-defines (Flutter --dart-define 的 Base64 列表),解码成 Map;
3) 生成 APK 名称:{AppName}-{buildType}-v{versionName}+{versionCode}-{gitBranch}-{yyyyMMdd-HHmmss}.apk;
4) 在对应 variant 的 assemble 任务 doLast 拷贝并重命名产物;
5) 打印“已生成重命名 APK: 路径/文件名”日志。
不要替换我已有配置,只追加必要代码,保持 Groovy 语法。

「带校验」Prompt

检查我当前的 android/app/build.gradle 与 AGP 版本:
- 如果直接设置 outputFileName 可能不生效,则使用“assemble 后拷贝改名”的方案;
- 兼容多渠道/多构建类型;
- 给出最少侵入的补丁,并解释每行代码的作用。

「CI 友好」Prompt

为 GitHub Actions 增强:
- 如果 git rev-parse 不可用,读取 $GITHUB_REF_NAME 作为分支名;
- 新 APK 放在 {project}/android/app/build/outputs/apk/{buildType}/ 里;
- 输出完整路径到控制台,供后续上传制品步骤使用。
只给最终可运行的 Groovy 代码块。

默认名字是 app-release.apk。 发给测试同学、上 CI 制品库,全都叫一个名。 找版本靠猜,非常痛苦。

而改名后,一眼知道

  • 是哪个分支出的包;
  • 版本号是多少;
  • 什么时候打的。

效率直接起飞。


  • 正常的 Flutter/Android 工程。

  • Android Gradle Plugin(AGP)版本任意,但改名方式会随 AGP 变更稳妥的做法是打完包再拷贝并改名(下文代码就是这样做)。 这是社区在 AGP 新 API 下的通行实践。

  • Flutter 的 --dart-define 参数会以 Base64 传给 Gradle 的 -Pdart-defines,我们可以在 build.gradle 里解码读取。


一键上手:把这段加入 android/app/build.gradle

Section titled “一键上手:把这段加入 android/app/build.gradle”

放在 android { ... } 之后的 applicationVariants 逻辑里即可(Groovy 语法)。 思路:拿到分支名 + 解码 --dart-define + 生成新文件名 + assemble 后拷贝重命名。 这种“拷贝改名”的方式跨 AGP 版本更稳定

// 读取 Git 分支名(CI 上建议兜底)
def getGitBranchName() {
try {
def branch = "git rev-parse --abbrev-ref HEAD".execute().text.trim()
return (branch ?: System.getenv("GIT_BRANCH") ?: "unknown").replace('/', '-')
} catch (Exception e) {
return System.getenv("GIT_BRANCH") ?: "unknown"
}
}
android {
// ... 你的原有配置 ...
applicationVariants.all { variant ->
variant.outputs.all { output ->
// 1) 解析 Flutter 的 --dart-define(Gradle 中以 -Pdart-defines Base64 形式传入)
def dartDefinesMap = [:]
if (project.hasProperty('dart-defines')) {
def raw = project.property('dart-defines')
def entries = []
if (raw instanceof List) entries.addAll(raw)
else if (raw instanceof String) entries.addAll(raw.split(','))
entries.each { item ->
try {
def decoded = new String(item.decodeBase64())
def kv = decoded.split('=', 2)
if (kv.length == 2) dartDefinesMap[kv[0]] = kv[1]
} catch (Exception ignored) { }
}
}
// 2) 你可传入 LOG_SHOW_PREFIX 等环境位
def appName = "测试A软件App"
def buildType = variant.buildType.name
def versionName = variant.versionName
def versionCode = variant.versionCode
def gitBranch = getGitBranchName()
def timestamp = new Date().format("yyyyMMdd-HHmmss")
def newApkName = "${appName}-${buildType}-v${versionName}+${versionCode}-${gitBranch}-${timestamp}.apk"
// 3) 打完当前 variant 的 assemble 后,拷贝并改名
variant.assembleProvider.get().doLast {
def outDir = output.outputFile.parent
copy {
from(output.outputFile)
into(outDir)
rename { newApkName }
}
println "✅ 已生成重命名 APK: $outDir/$newApkName"
}
}
}
}

说明:

  • Git 分支在本地用 rev-parse,在 CI 可通过 GIT_BRANCH 环境变量兜底。
  • 新版 AGP 的“直接改产物名”方案经常不稳定;拷贝改名是更通用的路线。
  • Flutter 的打包配置位置与打包方式,详见官方文档。

命令行示例:

Terminal window
# Release 包(示例环境变量)
flutter build apk --release \
--dart-define=LOG_SHOW_PREFIX=false \
--dart-define=CHANNEL=official

这些 --dart-define 会被 Flutter Base64 编码并注入 -Pdart-defines,上面的 Gradle 代码会解码拿到 Map 使用。


  • 直接改产物名偶尔失效 新版 AGP 的 Variant API 有改动。和社区经验一致,推荐 assemble 后“拷贝+改名”

  • Flutter 产物目录差异 部分情况下会出现 flutter-apk/ 目录或忽略 outputFileName 的现象。遇到就用拷贝改名兜底。

  • CI 是 detached HEAD git rev-parse 取不到分支,记得用环境变量兜底(如 GIT_BRANCH 或 CI 专用变量)。


Terminal window
flutter build apk --release \
--dart-define=LOG_SHOW_PREFIX=false \
--dart-define=CHANNEL=official
# 输出类似:
# android/app/build/outputs/apk/release/测试A软件App-release-v1.0+1-main-20250918-102530.apk

打包配置入口与目录结构可对照官方文档核实。


把命名写进流程,每个包都有“身份证”。 测试、回溯、追 bug,全都省事。 Claude Code 能把这些“烦人的小事”,变成一次配置,长期复用。

你觉得这套命名还要加什么信息?

2025年美股高估值逻辑:AI、核能、量子计算、稀土,谁是真金谁是泡沫?

普通投资者近期可能注意到,一些涉足前沿科技领域的美股公司股价出现了大幅飙升。本文将对这些公司的主营业务、股价上涨背后的驱动因素、估值与基本面的背离程度、商业模式的可持续性、行业趋势和市场情绪,以及公司护城河与竞争力进行深入分析,帮助理解高估值背后的逻辑、风险与机会。

下表概括了近期股价大涨的几家公司、其行业定位、涨幅情况及主要驱动力:

公司 (代码)行业定位近期涨幅 (约)核心驱动因素
Opendoor (OPEN)房产科技(住房交易平台)+1500%(7月初以来)创始人重返管理层,新CEO上任,成为散户热炒的meme股票
Iris Energy (IREN)高性能计算 / 数据中心(AI算力)+250%(2023年初至2023年6月)由比特币挖矿转型为AI基础设施,扩建绿色数据中心,获Nvidia合作
Nebius (NBIS)AI基础设施云服务+>500%(年初至今)获微软高达174亿美元AI算力大单,AI算力需求激增,Nvidia加持
Oklo (OKLO)微型核能(小型核反应堆)+600%(近一年)获美国空军基地核电项目合同,监管审批取得进展,OpenAI CEO Altman背书
D-Wave (QBTS)量子计算(量子退火技术)+1480%(近一年)量子计算概念热炒,营收虽小但增长快(半年营收$1800万);受IonQ等同行估值提振
IonQ (IONQ)量子计算(离子阱技术)+652%(近一年)掌握领先量子技术并积极并购扩张;量子计算被视为”下一波科技革命”
MP材料 (MP)稀土矿业(永磁材料)+75%(近一年,估计)停止对华原料出口获美国政府支持,稀土价格两年新高大涨40%;美国防部入股4亿美元
Robinhood (HOOD)金融科技(零佣金券商)+1600%(自低点起)利率上升推动利息收入飙增,营收同比+58%扭亏为盈;重新赢得散户青睐并被纳入标普500指数
Rocket Lab (RKLB)航天火箭 + 卫星服务+1000%(2023年至今)商业订单爆发(Q4营收同比+121%);签下新型中型火箭Neutron首单合同,积压订单超10亿美元
Pony.ai (PONY)自动驾驶(Robotaxi出行)+500%(上市一年)Robotaxi商业化加速(车队300辆,Q1营收$1400万);携手Uber等巨头合作拓展市场;入选指数及ARK基金关注

注: 以上涨幅为粗略估计,实际股价变动请以具体行情为准。

接下来,我们针对每家公司展开具体分析。

OPEN – Opendoor Technologies(房产科技)

Section titled “OPEN – Opendoor Technologies(房产科技)”
  1. 主营业务与行业地位

Opendoor是一家科技驱动的房地产交易平台,开创了住房**“即时买卖” (iBuyer)模式**。公司利用算法评估房价,直接购入房屋再迅速售出,从中赚取差价和服务费。Opendoor一度是美国最大的iBuyer,在房产科技领域处于领军地位。

然而这一商业模式对房价波动高度敏感,2022年美国房市下行时曾令Opendoor蒙受巨额亏损,行业内如Zillow等也被迫退出该领域。尽管经历挫折,Opendoor凭借先发优势和数据积累,仍被视作房地产交易数字化的先锋。

  1. 股价涨幅驱动因素

2025年下半年,Opendoor股价上演逼空式飙升,从7月初至9月中旬累计上涨超过15倍。这背后既有基本面与管理层变动的因素,也离不开市场情绪推动。

首先,公司9月宣布联合创始人Keith Rabois和Eric Wu重回董事会并分别担任董事长和董事,他们曾带领公司早期快速成长。同时,新任CEO由前Shopify高管Kaz Nejatian出任,被寄望能带来电商领域经验。

这一系列高层人事变动被视为公司重振的信号,获得投资者(尤其是散户社区)的热烈欢迎。对冲基金经理Eric Jackson大力声援创始人回归,推动市场将Opendoor打造成今年炙手可热的meme股票。

此外,宏观环境预期好转——市场憧憬美联储加息接近尾声、房贷利率见顶回落——也助长了投资者对住房市场复苏和Opendoor业务改善的乐观情绪。这些因素叠加,引发了大规模的散户买盘和空头回补,助推股价猛烈上扬。

  1. 估值泡沫与基本面背离

Opendoor当前股价已远超公司基本面的支撑,存在明显的泡沫成分。尽管管理层更迭带来信心提振,但公司主营业务并未立刻好转。截至近期,Opendoor仍在消化前期高价购入房屋的库存损失,尚未恢复盈利能力。

股价年内飙涨逾476%(截至9月中旬),而公司的收入和利润并没有同步大幅增长。可以说,Opendoor股价更多反映投资者对未来转机的憧憬,而非当前业绩。

这一点从市场对该股的讨论中可见一斑:很多散户将其与过往的GameStop等meme股相提并论,炒作情绪浓厚。若后续基本面无法兑现预期,股价存在大幅回调的风险。

  1. 商业模式的可持续性

Opendoor的iBuyer商业模式本质上是在充当房地产”做市商”,以自身资本承担房价波动风险换取交易便利。其可持续性有赖于对房价的精准预测和对库存的有效管理。

过去的事实证明,在房价单边上涨的市场中,这一模式可以带来增长;但一旦市场急转直下,公司易遭受严重亏损。因此Opendoor正努力改进模型、缩短持房周期,并寻求与传统中介合作以降低风险。

未来该模式能否持续,取决于公司风险控制能力以及房市环境。如果美国房地产市场趋稳回暖,Opendoor或许能恢复正向毛利并实现盈利。但如果房价剧烈波动或经济衰退导致需求疲软,其模式的脆弱性将再度暴露。

值得注意的是,Opendoor目前拥有充裕现金储备以应对短期波动,并且创始团队回归后可能调整策略(如更专注轻资产服务)以提升抗风险能力。总体而言,这一商业模式具有颠覆传统的潜力,但盈利可持续性尚待进一步验证。

  1. 行业趋势、估值水平与市场关注度

在线房产交易是近年来的行业趋势之一,消费者越来越习惯于通过数字平台买卖房屋。然而iBuyer作为其中最激进的模式,行业内已出现分化:Zillow因巨亏退出,Redfin也缩减这块业务。

Opendoor目前在这一细分市场几乎”一家独大”,某种程度上享有**“先行者溢价”**。二级市场上,经历2022-23年的低迷后,房产科技板块在2025年重新受到关注,Opendoor的翻倍行情更将其推上华尔街热点榜。

相较传统房产中介公司,Opendoor等科技公司的估值本就偏高,而近期涨势更是将估值推到极端水平,市销率等指标远远高出行业平均。市场资金方面,散户资金通过社交媒体组织涌入,再加上部分机构投资者跟风,使得成交量激增。

然而这样的关注度往往来也匆匆,一旦热点转移或公司未达预期,资金可能迅速流出。投资者应警惕高估值下波动性加剧的风险。

  1. 护城河与竞争力

Opendoor的竞争优势在于其数据和算法驱动的定价能力、全国性的运营规模以及”先进入者”身份带来的品牌认知度。通过多年交易数据积累,公司的估价模型具备一定深度,再加上快速成交的一站式体验,形成了相对独特的用户价值主张。

然而,这种优势能否称为护城河还有争议:大型房产门户或金融机构若投入资源,也有能力开发类似的线上买卖平台,进入壁垒并不算高。更何况,该模式成功需要承担库存和资金成本,并非所有玩家有意愿涉足。

Opendoor目前的主要竞争者其实是传统的房产经纪模式——在市场低迷时,人们更倾向于挂售而非折价速卖。可以说,Opendoor的独特竞争力在于敢于创新商业模式,但护城河还不稳固。

近期股价暴涨中很大成分是”蹭概念”和散户热炒,并非公司基本面突然超越同行。如果管理层不能拿出实质性业绩证明,股价神话恐难长久。因此,对这家公司需抱以长期看商业模式前景、短期防投机泡沫的态度。

IREN – Iris Energy(高性能计算 / 数据中心)

Section titled “IREN – Iris Energy(高性能计算 / 数据中心)”
  1. 主营业务与行业地位

Iris Energy原本是一家来自澳大利亚的比特币矿企,以利用可再生能源低成本挖矿著称。但自2023年以来,公司主动转型,将擅长的大规模算力基础设施应用到更广泛的高性能计算(HPC)领域,特别是为人工智能提供算力支持。

Iris Energy已在加拿大等地建设大型数据中心园区,拥有超5.6 EH/s的比特币算力,以及数百兆瓦电力容量,可部分切换用于AI训练等计算任务。公司2024年初正式更名为”IREN”,以凸显其业务重心已超越加密挖矿,扩展到为AI提供全栈基础设施。

在”比特币矿业+AI算力”这一新兴交叉领域,Iris Energy属于先行者,并与Nvidia、Dell等建立合作探索HPC解决方案。随着越来越多矿企尝试转型AI,Iris试图抢占先发优势,在高性能数据中心行业站稳脚跟。

  1. 股价涨幅驱动因素

Iris Energy股价自2023年以来表现强劲,2023年初至年中累计上涨超过250%。进入2024-2025年,其股价进一步受AI浪潮带动多次飙升。

例如,2025年9月,Iris在一个交易日内大涨15%并创下巨量成交,原因是市场受Nebius与微软签署巨额AI算力合同的消息刺激,联想到Iris作为AI基础设施提供商的潜力。

此前公司宣布与Nvidia合作部署9000块GPU以拓展HPC服务,并报告8月比特币挖矿收入增至$7900万。这些消息让投资者相信Iris有能力分享AI算力需求爆发的红利。

此外,公司本身业绩增长亮眼,2023财年收入同比暴增280%以上,证明从比特币挖矿向数据中心服务的转型初见成效。强劲基本面叠加市场对”AI算力”概念的追捧,使Iris股价涨势凌厉。

同时,Iris也是散户论坛热门讨论标的之一,社交平台上看多情绪浓厚。总体而言,AI算力转型的故事是驱动股价上扬的主轴,而大型合作伙伴背书和宏观氛围则火上浇油。

  1. 估值泡沫与基本面背离: 伴随股价飙升,Iris Energy的估值已从原本作为矿企时的市值水平大幅提升,部分反映对未来增长的高预期。相较传统数据中心公司,IREN当前市销率和市盈率明显更高,因为市场在把它当做AI基础设施概念股来看待。但从基本面看,公司规模仍然较小:2025上半年收入约仅几千万美元,转型后的盈利能力也未充分验证。一些迹象表明估值可能跑在基本面之前。例如,有报道称Iris股价年内涨幅远超其同期营收增速,多头情绪有过热之嫌。不过也要看到,公司营收基数原本较低,在转型初期出现数倍增长属于正常,投资者给予一定溢价可以理解。是否存在“泡沫”取决于未来业绩能否兑现高增长。若公司如分析师预测在2026年末实现收入翻番并持续增长,则当前估值有一定合理性;反之如果AI算力需求不及预期或竞争导致利润率受压,股票可能回吐涨幅。总的来说,Iris估值中含有相当的炒作成分,投资人需警惕基本面与股价脱节带来的调整风险。

  2. 商业模式的可持续性: Iris Energy的商业模式正从波动极大的加密挖矿,转向更为稳健的算力服务提供商。这种模式可持续性的关键在于:公司能否成功把数据中心产能出租给AI训练、云计算等高需求客户,从而获得经常性收入。一方面,Iris具备廉价清洁能源电力和既有基础设施,这是运营数据中心的核心优势,可支持其提供有竞争力的算力服务。其与Nvidia的合作也表明其技术路线与主流AI硬件生态兼容。另一方面,公司需要在矿业和HPC之间取得平衡。目前其大部分收入仍来自比特币挖矿,但长远看加密市场起伏不定,不足以支撑高估值。因此Iris必须持续拓展非加密客户,签订类似Nebius-Microsoft那样的大订单。高性能算力需求正快速增长,这给了Iris可持续发展的机会。然而,这一领域资本开支巨大:数据中心扩张、购置数万颗GPU都需要资金,公司可能面临融资和盈利压力。所幸Iris手头有约1.46亿美元现金(2024初数据)且无重大债务,可以支撑短期扩张。长期来看,只要AI算力市场继续繁荣且公司执行力到位,其模式具备持续盈利的潜力。但若未来比特币减半等导致挖矿收益骤降,而AI业务拓展又不及预期,公司的两条腿业务都可能受挫。因此,Iris模式能否持久,还有待观察其**从矿工成功转型“算力房东”**的实际进展。

  3. 行业趋势、估值水平与市场关注度: 2023年以来,生成式AI热潮引发全球对GPU算力的争夺,数据中心行业进入景气周期。大型科技公司纷纷加码建设AI机房,第三方算力供应商也迎来机遇。Iris所处的行业趋势无疑是向上的:预计到2028年,AI相关数据中心市场规模将增至760亿美元。当前整个算力基础设施板块估值都较高,例如Nvidia等龙头公司的市盈率远超历史均值,中小型算力概念股更是被热钱追捧。Iris作为“小而新”的AI基础设施标的,吸引了不少市场关注度,从日成交量暴增可以看出。一旦有重大合同或合作新闻,资金便蜂拥而入,推动股价短线飙升。不过行业竞争也在加剧:除了Iris,不少北美比特币矿企(如Hut 8等)都在宣布涉足HPC业务,传统数据中心公司也可能参与分羹。这意味着未来市场份额未必高枕无忧,届时估值或将分化回归更理性水平。目前Iris享受的关注度和高估值,建立在AI行业的高景气预期之上,对这一预期的任何风吹草动(如AI投资热度下降、算力过剩迹象出现等)都可能令市场情绪逆转。因此投资者既要看到行业大发展的机会,也需防范过热后的降温。

  4. 护城河与竞争优势: Iris Energy的竞争优势在于其低成本、绿色能源驱动的大规模算力基础设施运营经验。相较一般新进入者,Iris多年来在偏远地区建设大型矿场,练就了以低电价和高能效运营海量算力的本领,这可视为一种专业能力壁垒。此外,公司已锁定约3.1吉瓦的数据中心扩张规划,规模效应明显。再加上与Nvidia的直接合作渠道,Iris获取先进AI硬件的能力也优于普通竞争者。总体而言,其护城河主要源自资源和运营层面:便宜且清洁的电力供应、已建成的大型数据中心以及一支具有矿业背景(擅长控制成本和提高算力效率)的团队。这些都不是短时间内轻易复制的。不过,要说独特竞争力,Iris目前并无自研的软件或AI算法优势,其算力服务本质上仍是偏同质化的“基础设施出租”。面对云计算巨头(如亚马逊AWS、谷歌云)以及传统托管数据中心商的潜在竞争,Iris缺乏软件生态或客户黏性的壁垒。因此,其护城河更多体现为早期积累的一些硬件/资源优势,未来还需通过服务质量和客户网络的建立来强化。此外,不可否认的是,Iris近期受追捧部分因为搭上“AI热潮”的便车,如果只是蹭热点而不能形成自身独特技术护城河,股价热度可能难以持久。公司需要在未来几年拿出与头部云厂商差异化的竞争力(例如提供更定制化、更低延迟的AI计算服务等),才能在热潮退去后继续稳健发展。

3. NBIS – Nebius Group NV(AI基础设施云服务)

Section titled “3. NBIS – Nebius Group NV(AI基础设施云服务)”
  1. 主营业务与行业地位: Nebius是一家总部位于荷兰的人工智能基础设施提供商,业务涵盖GPU算力云平台、开发者工具和AI解决方案等全栈产品。简单来说,Nebius构建和运营大型GPU集群和云架构,为AI模型训练与部署提供算力支持及配套服务。公司有多条业务线,包括AI云平台、自动驾驶开发服务、众包数据平台Toloka等。Nebius的背景颇具话题性:它脱胎于俄罗斯科技巨头Yandex的海外部门,2022年从Yandex剥离独立。Yandex创始人Arkady Volozh出任Nebius CEO,这使Nebius继承了Yandex在云计算和AI方面的技术积累。同时,Nvidia是Nebius的重要合作伙伴和股东(公司被称为“Nvidia支持的企业”)。在全球AI基础设施领域,Nebius作为新锐正迅速崛起,尤其在欧洲和新兴市场定位为可替代美国云巨头的中立算力提供商。凭借Yandex技术血统和大笔融资支持,Nebius试图在GPU云服务赛道占据一席之地,与Oracle云、Lambda Labs等竞争高端AI算力市场。目前其影响力迅速扩大,成为资本市场关注的AI基础设施新贵。

  2. 股价涨幅驱动因素: Nebius自2023年底通过SPAC上市以来,股价一路飙涨,52周内从$14低位最高涨至逾$100,涨幅超过6倍。2025年9月更是出现了标志性的大行情:Nebius宣布与微软签订一份价值174亿美元的五年期AI基础设施供货合同,消息令股价盘后飙升近47%。次日开盘Nebius股价大涨约50%,成交量激增,投资者热情空前。这一合同意味着微软将租用Nebius位于新泽西新数据中心的大量GPU算力,用于其Azure云服务扩容。如此巨额订单被视为对Nebius模式的背书,显示出AI算力需求之旺盛和Nebius获取大型客户的能力。不仅如此,Nebius管理层表示这只是众多潜在大单的开端,公司有望与更多顶级AI实验室和科技巨头达成长约合作。此外,今年5月亚马逊创始人贝索斯领投了Nebius旗下Toloka数据业务的新一轮融资;7月俄罗斯富豪Potanin也入股Nebius前身Yandex的新架构。一系列利好使市场对Nebius前景极为乐观。总的来说,微软天价合同是股价腾飞的直接催化剂,而Nebius作为*“AI基础设施小巨头”*的故事和稀缺性则是支撑其上涨的长期因素。

  3. 估值泡沫与基本面背离: Nebius当前市值已逾200亿美元,对于一家刚独立不久、年营收尚未完全释放的公司而言,引发了对估值过高的讨论。从财务数据看,Nebius近年收入基数较小(2025年Q1营收约$1400万 ),即使考虑微软合同未来几年每年带来数十亿美元收入,公司股价的涨幅也已经提前price-in(计入)了非常激进的增长预期。根据路透社数据,Nebius静态市销率(P/S)高达89倍,前瞻市盈率则因短期利润微薄而高得惊人。股价显然包含了相当程度的泡沫成分。然而也需看到,若微软合同顺利执行,Nebius年营收有望跃升至数十亿美元级别,加上潜在新合同,实际业绩增长可能跟上估值步伐。换言之,市场是在用未来5-10年的云服务巨头标准在定价Nebius的股票。如果Nebius如管理层所言持续拿下大客户、AI云业务在2026年后进一步提速,那么当前看似离谱的估值或许有一定合理性。但倘若后续拿不到类似大单或合同执行不及预期,高估值则面临回调压力。需要注意的是,Nebius背靠雄厚资本且业务模式重资产(数据中心投入),短期内不会有净利润,投资者需要有长线眼光。目前的股价更大反映了对AI算力基础设施稀缺标的的追捧,与当前盈利水平明显脱节。因此可以说存在泡沫,但其未来成长性如果兑现,泡沫成分会逐渐被消化。在业绩明朗前,股价波动性将较高。

  4. 商业模式的可持续性: Nebius的商业模式是打造独立的AI超算云平台,向有海量算力需求的企业出租或出售算力服务。这种模式类似于小型的AWS/GCP,但聚焦在最前沿的AI计算领域。可持续性取决于两点:其一,AI算力需求的长期旺盛;其二,Nebius能否持续保持技术和成本优势,赢得客户信任。从需求端看,AI模型的参数规模正指数级增长,各大企业训练AI的开支飙升,未来5-10年高性能GPU/TPU云的需求大概率持续强劲。这为Nebius等新兴算力提供商提供了巨大的市场空间。实际上,微软选择Nebius正是因为自身Azure算力难以及时满足内部需求,说明市场缺口的存在。从供给端看,Nebius目前的优势在于整合了Yandex自研的云平台软件和硬件设计经验 、获得了Nvidia的深度支持,以及地处欧洲有一定区域优势。短期内,大客户签约让其数据中心产能有了保障。但长期来看,要在巨头环伺的云服务业生存并扩张并非易事。亚马逊、谷歌、微软本身也在疯狂扩建AI算力,阿里、Oracle等亦投入竞争。Nebius必须避免与巨头正面拼价格,而是提供差异化服务(例如定制化算力、跨国中立服务等)。目前Nebius借助巨额合同实现规模跃迁,接下来要努力将一次性合同转化为平台化、经常性的云业务。只要AI算力需求保持上行、Nebius能维持技术领先并拓展客户群,其模式就有可持续性。但如果未来AI模型演进放缓或者计算范式改变(例如出现新型低算力需求AI),Nebius可能面临成长瓶颈。此外,国际政治风险(公司俄罗斯渊源)也是潜在威胁。整体而言,Nebius模式植根于AI产业繁荣的大趋势,短期看持续性强,但需警惕行业变化和竞争格局对其造成的长期影响。

  5. 行业趋势、估值水平与市场关注度: 人工智能基础设施是当前科技行业最炙手可热的赛道之一。今年以来,生成式AI爆发带来“算力荒”,相关公司股票纷纷大涨,Nvidia市值突破万亿美元正是缩影。Nebius作为少数提供纯粹AI算力云服务的上市公司,自然获得高度关注。对比行业,传统云服务巨头PE估值在20-30倍左右,而许多AI初创公司因为尚无盈利被给予远超百倍营收的估值。Nebius正处于后一种情况——高成长高估值并存。当前市场对Nebius的关注度体现在媒体频繁报道、分析师纷纷覆盖及社交平台热议。例如Nebius宣布微软合同时,不仅自身股价暴涨,甚至带动了Iris Energy等相关板块公司上扬,可见资金的兴奋程度。这从侧面说明目前市场情绪非常乐观,资金持续流入AI基础设施主题。然而,一旦利好出尽或行业进入阶段性冷却期,相关公司股价往往回落显著。投资者应注意到,Nebius在经历了上市初期的沉寂后,凭借重大利好一鸣惊人,当前估值水平已在相当程度上反映了市场对AI板块的乐观情绪。未来若出现美联储收紧资金、科技股整体估值下移等宏观因素,或者竞争对手融资上市分流关注,Nebius股价可能承压。近期的资金流入多来自看好其潜力的机构投资者,甚至包括ARK等知名基金在内(据报道ARK基金亦买入了一定仓位)。总体看,行业大趋势向好+稀缺标的光环使Nebius成为资金追捧对象,但持续的高关注度也意味着高波动性。

  6. 护城河与竞争力: Nebius的护城河主要建立在技术和资源两方面。一是技术:源自Yandex的云平台架构和AI研发能力,使Nebius在构建高性能分布式计算平台上少走了弯路。它拥有自研的云操作系统和AI开发工具,可以更好地优化GPU资源利用率。同时团队里有Yandex背景的顶尖工程师(如CEO Volozh本人在俄罗斯互联网界经验丰富),技术人才储备深厚。二是资源:Nebius获得了Nvidia的战略投入和先进GPU支持,被视为“Nvidia系”公司。这意味着在芯片供应紧张时,Nebius可能优先拿到最新的GPU。这一点对AI云业务至关重要。此外,通过微软大单,Nebius在美国新建数据中心锁定了稳定现金流,这相当于由头部客户帮其建立起基础设施。综合来看,Nebius的竞争力体现在能拿出顶级AI算力解决方案并获得巨头认可,这是多数初创竞争对手不具备的。然而,要说护城河,目前仍相对脆弱:云服务行业规模效应巨大,Nebius体量尚小,容易受到更大玩家挤压。同时其业务有地缘政治复杂性(俄背景),在某些市场可能受限。这也是为什么Nebius急于树立自己国际化(总部荷兰)和中立提供商形象的原因。Nebius并非纯粹“蹭热点”的公司,其核心竞争力在近期的确得到了微软这样严苛客户的验证。但未来护城河能否拓宽,要取决于它能否不断签下多元客户、扩大规模,抵御巨头进入。这家公司既有独特竞争力又面临大挑战,目前的高光表现需要持续的执行力来巩固,否则股价中由“AI故事”堆积的泡沫可能破裂。投资者需密切关注其竞争格局变化和自身技术迭代,以判断护城河的牢固程度。

  1. 主营业务与行业地位: Oklo是一家开发微型核反应堆的清洁能源公司,致力于设计和建造小型、模块化的先进核电站。其旗舰产品“Aurora”微型反应堆据称输出功率在几兆瓦级,采用创新的快堆技术和新型燃料(高富集低浓缩铀,HALEU),旨在实现多年免燃料更换、安全自动运行。Oklo的定位是为偏远地区、军事基地、工业园区等提供分布式的清洁基荷电力,这是传统大核电站无法覆盖的市场。公司获得了包括OpenAI CEO山姆·阿尔特曼(Sam Altman)在内的硅谷投资人的大力支持,Altman甚至发起SPAC与Oklo合并上市,让Oklo在2024年5月登陆纽交所。在新兴的先进核能领域,Oklo属于领跑者之一。与其它小型模块堆公司(如NuScale)相比,Oklo专注更小功率、更快部署的微堆,战略差异明显。Oklo已与美国能源部及国家实验室合作多年,并于2020年成为首家获得美国核管会(NRC)受理非轻水堆设计应用的公司,尽管最初申请被退回,但公司持续改进设计再提交。总体而言,Oklo在微型核能创业公司中具有较高知名度和技术厚度,被视为有望实现商业化落地的少数玩家之一。

  2. 股价涨幅驱动因素: Oklo股票自上市以来一路上涨,引人瞩目。截至2025年6月,股价较合并上市时约$10的水平上涨超过600%,年初至6月已上涨约212%。推动Oklo股价飙升的因素主要有:

(i) 核心合同突破:2025年6月,公司宣布获得美国空军的首个核电供应合同,将在阿拉斯加埃尔森空军基地设计、建设、拥有并运营一座Aurora微型核电站,为基地提供长期清洁电力。军方订单极大提高了市场对Oklo技术和商业模式的信心,意味着Oklo从研发迈向实际部署的关键一步。

(ii) 监管进展利好: Oklo近期在核管会的审批上取得阶段性成果——NRC正在审查其提交的“反应堆操纵员执照顶层报告”,这是一项创新许可模式,将简化未来微堆审批流程。监管障碍的逐步清除令投资者预期Oklo距离拿到核准建厂更近。

(iii) 高层支持与市场情绪: Oklo背后有Altman等科技大腕撑腰,市场对其关注度本就很高。加之拜登政府近年颁布鼓励先进核能的行政令,政策环境友好。分析师和基金纷纷唱多:如Craig-Hallum给予“买入”评级,认为Oklo在先进核能市场地位独特、技术有优势。在一系列利好催化下,Oklo股票在2025年上半年多次大涨(例如6月11日单日飙升26%,创历史新高$66.33),投资者情绪高涨。总的来说,军方合同 + 监管进展 + Altman光环,是驱动Oklo估值迅速攀升的三大动力。

  1. 估值泡沫与基本面背离: Oklo目前的估值已远远超出传统能源公司范畴,更接近高成长科技股水平。公司市值从SPAC合并时不到10亿美元攀升至2025年中超过80亿美元。然而截至2025年,其营收仍微乎其微(主要是少量研发合同收入),尚未实现任何商业反应堆交付,净利润也为负。如此来看,股价完全是基于对未来的想象空间。分析指出,按当前股价,Oklo已“显著高于公允价值估计”,但市场资金依然趋之若鹜,原因在于投资者对其长期成长抱有极高信心。这无疑带有相当泡沫成分:股价上涨>600%而营收几乎未变,典型的故事大于业绩。不过,由于Oklo掌握的技术和拿下的合同具有颠覆性意义,很多成长型投资者乐于为之提前买单。Oklo管理层也强调公司财务稳健,流动比率高达36,账上现金充裕且几乎无债。这意味着即使短期不盈利,公司也有资金推进项目,不会立刻“讲不下去故事”。因此目前泡沫的风险主要在于时间维度:若几年内Oklo无法交付反应堆、证明商业模式,估值终将大幅回调。就现状看,Oklo股价确实透支了相当多的未来业绩,但鉴于核能项目周期长,这一“超前定价”在高风险偏好投资者中可以接受。概括而言,Oklo存在一定估值泡沫,股价和基本面短期脱节明显,但其潜在市场极大,一旦实现商业落地,长期估值又可能被业绩追上。目前对普通投资者来说,需要意识到其中高风险:如果微型核反应堆商业化进程不顺,股价可能大幅震荡。

  2. 商业模式的可持续性: Oklo的商业模式是通过提供分布式核电服务来盈利,而非仅出售反应堆设备。以空军基地项目为例,Oklo将建设并运营核电站,用户签订长期购电协议(PPA)按电量付费。这类似于核电版的“能源即服务”模式,优势在于客户无需自行承担建堆成本和技术风险,Oklo则获得稳定现金流。该模式如果顺利跑通,具有很强可持续性:各国军方、偏远社区、工业用户对独立可靠电源有长期需求,只要Oklo技术可靠并在监管允许范围内推广,一个项目签订后可带来持续数十年的收入。同时由于反应堆模块小巧工厂化制造,Oklo可以批量部署,规模经济将逐步显现。此外,小型堆的运维成本据称较低,Oklo计划采用创新的运维模式减少人力,从而提高盈利能力。然而,这一切建立在技术和监管的成功之上。现实挑战不少:Oklo尚需通过NRC最终设计认证、解决燃料供应(HALEU燃料目前产能有限)、以及确保首次项目按预算完工。如果任何环节不如预期,都会影响其商业模式的可信度和复制性。长期看,Oklo的增长能力取决于能否打造成标准化微核能产品供应商。若Aurora机组在军方/商用领域连获成功,订单会源源不断,业务模式自然可持续;但若仅靠单一示范项目且后继乏力,则难以撑起当前估值。总体而言,Oklo模式面向一个巨大的潜在市场(全球偏远能源和零碳电力需求),具有可持续扩展的想象空间,但落实到现实需要时间和执行。至少未来5年内要密切关注其项目进展以评估模式是否真正成立。

  3. 行业趋势、估值水平与市场关注度: 核能行业近年出现复兴迹象,尤其是小型模块化反应堆(SMR)被认为是未来能源的重要补充。各国政府纷纷投入研发经费、简化审批流程以推动先进核能发展。美国政府在《通胀削减法案》(IRA)中也为先进核项目提供补贴和税收优惠。Oklo所处的微型核反应堆赛道,更是因其低建造成本和灵活部署而备受关注。行业整体估值水平较传统能源有显著溢价。例如NuScale(另一SMR公司)上市时估值数十亿美元,尽管尚未有商业机组运行。这反映资本市场对核能新技术的期待。Oklo在诸多初创核能企业中因Altman参与而出圈,市场关注度极高:媒体频频报道其进展,散户社群热议,将其视作“未来能源的特斯拉”。资金流向上,2024-2025年有多支清洁能源基金、科技主题基金建仓Oklo,使其成为先进核能的代表性投资标的之一。可以说,Oklo搭上了当前能源转型+尖端科技的双重热点。“零碳发电”主题在ESG投资中地位举足轻重,而核能正重回主流视野,这进一步提高了Oklo的受关注度和融资能力。然而,行业也有隐忧:公众对核安全的接受度、核废料处理问题等依旧存在。如果发生任何核领域负面事件,板块热度可能骤降。就目前看,资金对Oklo的追捧更多是基于战略眼光,愿意长期持有赌其成功,短线投机反倒相对有限(股东结构显示机构为主)。因此Oklo股价虽波动剧烈但总体趋势向上。行业趋势有利、市场关注度高为Oklo创造了有利环境,但也意味着公司肩负行业期待,一旦不达预期,会受到更加严苛的审视。

  4. 护城河与竞争力: Oklo的护城河建立在独特的技术路线和先发优势上。其Aurora反actor采用快中子金属燃料技术,在理论上可实现更高燃料利用率和更长换料周期,这是传统压水堆无法做到的。Oklo在这一路线研发上深耕多年,积累了专利和专有设计,具有一定技术壁垒。同时,公司积极探索新的监管模式(如操纵员顶层报告),试图为微堆铺平审批道路。这方面的经验也将成为竞争优势——后来者可能参考Oklo的路径,但Oklo是第一个吃螃蟹的。另一方面,Oklo背靠Altman等强力股东,不仅资金相对充沛,而且获取公共关系支持。在政府决策和公众宣传上,这种背景是一种“软护城河”。此外,空军项目的落地为Oklo建立了一个实绩护城河:证明自己是目前少数能让纸上反应堆走进现实的企业之一。这对争取后续客户非常关键。然而,Oklo也面临竞争:国际上如美国的Kairos Power、丹麦的Seaborg等公司也在开发微型核堆,各有特色。Oklo需要在商业化速度上保持领先,以巩固市场地位。一旦先发优势确立,后来的同行即使技术可行,也可能已错过窗口期。此外,微型核能的护城河还有一个重要方面——安全与可靠的口碑。如果Oklo早期项目表现良好(安全稳定、高可用),将形成品牌和信任壁垒,这是非常宝贵的资产。就目前而言,Oklo绝非徒有概念之名的“蹭热点”公司,其确实掌握了差异化的硬核技术,并踏实推进项目。正因如此,它才能获得军方、监管层和投资界的多方认可,建立起初步的护城河。当然,这条护城河还需要成功运营发电厂来加宽加深。在这之前,投资者仍需对可能的技术或进度风险保持谨慎,切勿因概念炙手可热就忽视其中蕴含的专业门槛和不确定性。

5. QBTS – D-Wave Quantum Inc.(量子计算)

Section titled “5. QBTS – D-Wave Quantum Inc.(量子计算)”
  1. 主营业务与行业地位: D-Wave是全球首家将量子计算机商业化的公司,专注于量子退火(Quantum Annealing)技术。其早期产品并非通用量子计算机,而是一种专门求解优化问题的量子退火系统,已卖出或云开放给一些企业和研究机构使用。近年来,D-Wave也启动了基于门模型(Gate Model)的通用量子计算研发,以跟上行业主流。公司同时提供量子软件开发环境和云服务,让客户通过Leap云平台访问其量子处理器。作为量子计算领域的老牌劲旅,D-Wave在业界占有特殊位置:它起步于加拿大,在2000年代就研制出量子退火机,客户包括NASA、洛克希德·马丁等,对量子计算商业探索作出了贡献。不过,由于退火技术在解决通用计算问题上受限,D-Wave一度被部分业内人士视为“走捷径”。随着IonQ、Google等在通用量子计算上取得突破,D-Wave面临压力。但其退火机在某些组合优化问题上仍有独特价值,且其新一代退火机“Advantage2”性能提升显著。2022年D-Wave通过SPAC上市,是少数几家公开交易的量子计算企业之一。在行业中,D-Wave可谓资历最老的商用量子公司,技术路径与IonQ、Rigetti等有所差异。这种独特定位使其既拥有一定知名度,也面临如何证明退火优势和赶超通用技术的挑战。

  2. 股价涨幅驱动因素: D-Wave股票在过去一年出现爆炸性上涨,12个月涨幅超过1480%。2023年D-Wave股价一度跌至接近$1的低位,但自2024年以来,随着量子计算板块整体升温,公司股价扶摇直上,在2025年中突破$18。推动这一走势的原因包括:

(i) 行业热潮: 2023年谷歌发表“量子高峰”研究成果,引发市场对量子计算新一轮想象,量子概念股集体起飞。IonQ等公司股价飙涨带动板块情绪,D-Wave作为低价落后股被后知后觉的资金疯狂追捧。

(ii) 公司自身进展: D-Wave 2024-25年连续发布积极消息,例如推出更强大的Advantage2处理器、客户案例增加,以及宣布了一些量子混合算法新突破。这些进展虽属渐进,但提振了市场对其技术路线的信心。另外,公司披露2025年上半年营收同比增长289%至$1810万(虽基数小,但增长率亮眼),显示业务在拓展。

(iii) 市场炒作与特殊事件: 在美股散户论坛上,D-Wave一度被称为“下一个IonQ”,大量投机资金涌入博取高弹性收益。同时,公司在2025年夏季宣布1股拆分为N股的计划传闻(吸引更多散户买入低价股),也短暂刺激了股价。综上,量子计算的大风口+自身业务回暖+投机氛围共同造就了D-Wave股价惊人的翻倍行情。

  1. 估值泡沫与基本面背离: D-Wave目前的股价与基本面之间存在相当大的脱节。市值已从不足1亿美元飙升到十多亿美元量级,但公司收入规模仍很小——2024全年营收仅几千万美元,且仍在亏损。按最近股价计算,其市销率远超百倍,市盈率尚无意义(亏损)。这明显体现了估值对未来的透支。市场是在赌D-Wave未来能实现商业突破,而非基于现有业绩给出估值。考虑到公司目前主要收入来自量子退火服务和政府项目,规模有限,股价的飞涨更多反映投机资金推动下的泡沫。例如,有媒体称量子计算吸引了投资者的想象,将包括D-Wave在内的公司市值推向“高空”。D-Wave过去一年股价涨了近15倍,但同期公司仅发布了一些技术升级,并未签订任何巨大商业合同。这表明股价主要靠情绪驱动。不过另一方面,如果D-Wave未来两三年真能研制出实用的门型量子机并开始大幅增加收入,那么当前高估值也许可以逐步被稀释。目前来看,其泡沫成分较浓:投资者赋予它的估值几乎完全建立在对量子计算行业前景的期待,忽略了公司短期实现盈利的不确定性。值得注意的是,类似IonQ、Rigetti等量子股也存在市值虚高的问题,这是整个新兴行业的普遍现象。因此虽然D-Wave估值与基本面严重背离,但不能孤立看待,需放在“量子计算泡沫”大环境下理解。对于普通投资者而言,要清醒认识这其中的投机风险:一旦行业冷却或公司进展不及预期,股价可能大幅回调。

  2. 商业模式的可持续性: D-Wave当前的商业模式是提供量子计算机访问和相关软件服务。短期内收入主要来自:

(i) 向研究机构和企业出售/租赁量子退火计算机,以及云访问服务的订阅费;

(ii) 承接政府科研合同(比如美国国防部、加拿大政府的量子项目资助);

(iii) 向合作伙伴提供量子算法咨询等。

这个模式维持了D-Wave多年的生存,但规模始终不大,因为量子退火应用场景有限,客户多处于试验性质。要提升可持续性,D-Wave需要开拓新的收入来源,例如提供通用量子云服务、将量子技术应用于更广泛商业场景。公司正朝此方向努力,包括研发自己的门型量子计算机,计划未来通过云平台统一提供退火+门型量子服务。如果成功,可能开启更大的市场。D-Wave的可持续性挑战在于:烧钱研发能否撑到商业回报出现。目前公司现金储备和收入都有限,持续研发依赖融资和政府支持。在股价大涨后,公司有机会通过增发等方式补充资金,这反而有利于其持续投入技术(假如管理层善用高估值融资)。整体来说,D-Wave商业模式前景不确定性很高:也许在未来5-10年量子计算真正产生杀手级应用时,它能分一杯羹;也可能被技术路线落后的阴影所累,迟迟无法盈利。但只要量子计算的浪潮继续向前,D-Wave通过不断推出更强系统、保持技术相关性,其业务就能维持并逐渐扩大。目前来看,公司营收已连续增长,2025年还实现了42%的同比增幅,说明在向好的方向发展。持续性关键取决于技术突破和市场应用落地的速度,投资者对此需要保持跟踪。

  1. 行业趋势、估值水平与市场关注度: 量子计算被誉为下一次计算革命,2023-2025年有点燃泡沫的势头。自谷歌展示量子优势、OpenAI爆火后,市场将目光转向量子计算,希望抓住AI之后的下一个突破口。这一趋势推动量子计算初创公司的融资和上市,IonQ、D-Wave、Rigetti、Quantum Computing Inc等先后进入公众市场。行业整体估值水平高企,IonQ市值一度超过100亿美元,而2023年营收不到$10M。D-Wave等相形之下更小,但涨幅甚至更猛烈。可见当前估值更多基于投机和长期愿景,短期业绩影响不大。市场关注度方面,量子计算已经从象牙塔走向舆论热点,各大媒体频繁报道“量子霸权”“量子芯片”等话题,投资者兴趣浓厚。在股票论坛上,量子计算板块被看作可能重演AI板块那种狂飙行情,这种故事性吸引了大量游资。特别是2023-2024年美股成长股整体回暖背景下,量子股成为风险资金的乐园。然而也有分析师警告,这可能是**“迷你泡沫”**,如果进展不及预期泡沫会破裂。就D-Wave而言,当前人气确实高涨,很多个人投资者将其与IonQ并列关注,试图博取高收益。一些知名财经媒体和卖方报告也开始讨论D-Wave的投资价值,提升了主流认知度。但随之而来的是监管和舆论的留意:若股价剧烈波动或网络炒作过度,可能引发SEC介入或媒体质疑。目前看,量子计算行业趋势向好但进展缓慢,与二级市场狂热形成对比。D-Wave的关注度很大程度上来自行业光环,资金进出节奏与科技突破进度未必匹配。这意味着风险偏好资金会反复进出造成股价剧烈震荡,对基本面改观不明显的季度,公司股票也可能大起大落。投资者要有心理准备,不应盲目追高。

  2. 护城河与竞争力: D-Wave的护城河主要来自其多年积累的量子退火专长和商业化经验。作为行业先驱,D-Wave拥有退火算法、芯片设计、低温设备等多方面的专利和知识产权,在组合优化领域建立了技术壁垒。它的量子退火机是目前市面上量子比特数最多且可实际使用的系统之一(5000+量子比特,尽管不是门模型)。这一特定领域,D-Wave几乎没有直接商业竞争对手(其他公司多集中于通用量子),这赋予了它独特定位。此外,D-Wave已经培育了一个开发者社区和软件平台Leap,拥有超过几十个早期客户试用其系统,这也是一项无形资产。然而,D-Wave的竞争力也有短板:在通用量子计算的军备竞赛中暂时落后于IonQ、Google等。如果它不能快速追赶门型量子技术,长远看可能被主流市场边缘化。因此,公司近年也在强调其量子门模型研发计划,希望最终提供两种体系融合的解决方案。可以说D-Wave的护城河在特定利基市场深且稳,但在更广阔的量子计算未来版图中尚未建立优势。好在凭借先发身份,公司品牌认知度高,也容易获得政府合同支持,这些是其它初创公司不具备的。至于近期股价暴涨中的“护城河”,更多体现为概念稀缺性:公开市场上选择不多,D-Wave成为追逐量子题材的资金必看的标的。这并非传统意义上的竞争力,但从投资角度是个现实因素。总而言之,D-Wave不是徒有其名的空壳,“蹭热点”之外确实有硬核技术积累,只是需要时间证明其路线价值。在量子计算漫长征途中,D-Wave的护城河和竞争地位还会不断演变。目前投资者应同时看到其已有的技术领先之处和未来可能的挑战,不因热门就忽视风险也不因争议就一概否定其潜力。

  1. 主营业务与行业地位: IonQ是一家基于离子阱(Trapped Ion)技术的量子计算公司,被认为是当前量子硬件领域的领先者之一。其量子计算机通过捕获悬浮的电荷离子作为量子比特,具有高精度操控和长相干时间的优点,在量子门模型实现上取得多项记录。IonQ采用轻资产策略,将自家量子机接入主要云平台(如AWS、Azure、Google Cloud),客户可以通过云端按需使用IonQ的量子算力。公司还积极开发量子算法和软件,与合作伙伴探索在化学、机器学习、优化等领域的应用。IonQ的行业地位较为独特:作为首批上市的量子计算企业(2021年SPAC上市),它吸引了大量关注。由于IBM、谷歌等科技巨头的量子业务未独立上市,IonQ一度成为投资者押注量子革命的头号纯正标的。技术上,IonQ宣称其设备拥有业内较高的量子比特保真度和中等规模(29个算法量子比特左右),在量子体积等指标上领先。此外,IonQ在2023年宣布了一系列扩展计划,包括收购英国Oxford Ionics公司以提升技术能力。总体而言,IonQ被视为量子计算赛道最具潜力的独角兽之一,在初创公司中处于领跑梯队。

  2. 股价涨幅驱动因素: IonQ的股价在最近一年多上涨惊人。过去12个月涨幅高达652% (股价从约$8升至$55以上),成为华尔街瞩目的明星科技股之一。其上涨动力主要来自:

(i) 行业想象力: “如果AI是现在,量子计算就是下一次技术革命” 的概念深入人心。投资者将IonQ视为有望引领下一波浪潮的公司,在ChatGPT引爆AI热潮后,市场资金又转向量子领域寻找下一个10倍股。

(ii) 公司利好消息: IonQ管理层不断释放积极信号。2023年底IonQ提高了中期营收指引,并宣布了数份新合同订单。2024年又完成对Oxford Ionics的收购,该公司保持量子逻辑门保真度世界纪录,此举被视为优势互补。IonQ CEO描绘了宏伟愿景:2030年前实现200万物理比特/80000逻辑比特的容错量子计算机。虽然这仍在规划,但极大激发了市场想象。

(iii) 资金推动: IonQ股价上扬伴随交易量放大,暗示有大量散户和量化资金参与炒作。不少散户将IonQ称作“量子领域的英伟达”,憧憬其十年百倍成长,社交媒体讨论热烈。与此同时,一些知名投资机构也建仓IonQ,例如ARK基金将其纳入“ARKQ”ETF,引发跟风买入。这些因素交织,使IonQ股价节节攀升甚至出现几次跳涨。比如2025年9月,IonQ公布完成收购Oxford Ionics的最后批准,股价单日大涨18%至历史新高。概括而言,IonQ上涨背后的逻辑并非短期业绩驱动,而是战略进展+远景故事+投机热情共同作用的结果。

  1. 估值泡沫与基本面背离: IonQ当前市值已超过百亿美元,而其收入规模尚非常有限(2023年收入仅约$11百万)。公司仍处于研发烧钱阶段,最近季度净亏损高达$1.77亿。这一状况与翻几倍的股价形成鲜明对比——显然估值主要基于长期前景而非现状。IonQ的市销率已超过1000倍,若考虑亏损,市盈率更无从谈起。这一水平远远超出了合理估值范畴,存在严重泡沫嫌疑。正如金融媒体所指出:“量子计算抓住了投资者的想象力,将IonQ等公司价值推向了天价”。当前IonQ股价隐含的乐观预期是:未来5-10年公司能够实现商业化突破、营收呈指数增长。然而量子计算技术路线仍有重大不确定性,实现大规模有用计算可能比乐观预计更久。因此短期内IonQ股价与基本面严重脱节。部分理性分析者已经发出警示,称IonQ股价含有巨大泡沫风险。不过也有支持者认为,对开创性技术应以潜在市场规模定价,不能拘泥当前财务。毕竟如果量子计算成功,IonQ对应的市场价值可能数千亿美元。市场目前选择相信后者的故事,因此泡沫仍在自我强化中。但普通投资者应保持审慎:IonQ估值中夹杂着过度乐观的成分,若行业进度或公司绩效达不到神话预期,估值泡沫破裂将导致股价深幅下跌。例如,一旦量子计算热度被AI等其他热点盖过,资金撤出时IonQ股价可能迅速腰斩。总之,目前IonQ体现出的繁荣更多是资本市场对未来豪赌的泡沫化结果,风险与机遇并存。

  2. 商业模式的可持续性: IonQ的商业模式是打造通用量子计算云平台,向企业和研究者提供量子算力服务。从长期看,这可以类比为“量子版亚马逊云”。如果量子计算机达到一定实用规模,IonQ将按小时出租量子计算时间,或者出售量子芯片及整机。眼下,IonQ主要通过云合作伙伴(AWS Braket、Azure Quantum等)以“量子云服务”方式获客,也直接与部分大企业签订试用协议。当前收入虽小,但商业模式思路清晰,一旦量子优势出现就能变现。可持续性的关键在于技术进展:IonQ必须不断提升机器性能,保持领先,否则客户不会长期为有限的量子演示买单。好消息是IonQ路线比较稳健,每年都提高量子比特数量和精度,其提出的发展里程碑也给客户和投资人一个逐步兑现的框架。若按计划推进,到2026-2028年IonQ机器或许能解决某些商业问题,那时收入将快速增长。然而在此之前,公司面临烧钱与技术攻坚双重压力,需要持续投入研发。这对可持续经营提出挑战:IonQ上市募集的现金可以支撑几年,但若到2027年前后仍未大规模商业盈利,可能需要二次融资或合作获取资金。以目前高股价,公司有条件通过发行新股融资(类似C3.ai在高位融资补血),这反过来有助其模式坚持下去。因此IonQ的模式持续性不仅取决于技术,也取决于其利用资本市场资源的能力。从行业视角看,量子算力最终会成为云服务的重要组成,IonQ先发布局有利长期。不过竞争也很激烈,科技巨头自有量子项目一旦突破,会抢占市场。因此IonQ模式是否最终胜出,需看其能否在巨头之前实现实用化并建立生态黏性。在路径未卜时,IonQ模式短期的持续主要靠投资热情“输血”。只要资本愿意支持,其研发就可持续,一旦资本断奶则危险。因此,对IonQ的可持续性应分两阶段看:短中期靠融资维持研发,长期看技术落地后的自我造血。如果相信量子计算终将落地并颠覆计算产业,那么IonQ的模式可持续且回报丰厚;反之则可能中途夭折。考虑到目前各国和大企业都在努力推进量子,这个赛道的耐力竞争才刚开始,IonQ以先发身份应能在未来几年持续推进下去,前提是管理层合理运筹资金和技术路线。

  3. 行业趋势、估值水平与市场关注度: 当前量子计算行业处于“高投入、零产出”的早期阶段,但趋势无疑向上。各国政府增加科研资助、科技巨头投入人财,整个行业每年都有里程碑式进展。谷歌、IBM已实现50-100量子比特量级的原型机并演示量子优势,摩尔定律式的拓展尚未到尽头。资本市场对这一领域高度关注,尤其在ChatGPT带动科技股复苏的背景下,量子作为下一希望故事被反复提及。行业估值因此普遍偏高,不仅IonQ,其他量子初创如Rigetti、D-Wave等也都有市值虚高现象。可以说量子计算板块本身有整体泡沫,不少公司市值加总远超实际经济产出。市场关注度方面,IonQ几乎是板块旗手,每逢有量子新闻,IonQ总被拿来举例,许多散户投资者将其纳入自选观察。2025年以来,主流财经媒体(CNBC、彭博等)多次报道IonQ股价的疯狂表现,引发更广泛讨论。这种关注一方面为行业发展带来更多资源,另一方面也使股价容易受到新闻和舆论的驱动而剧烈波动。目前市场对IonQ的关注焦点在于:其技术路线有何优势、何时能产生实际价值、是否存在泡沫等。资金流入流出则紧盯量子计算的进展节点,如重大科研突破或政府政策支持。2025年英国政府批准Oxford Ionics并购就刺激IonQ股价创新高。反过来,若哪天有权威声音唱空量子行业,可能全板块都会受挫。总的来说,行业大方向坚定、短期情绪摇摆是IonQ所处市场环境的写照。投资者需要认识到当前估值环境是建立在对未来浓厚兴趣之上,这是把双刃剑:有利于公司融资和推进,但也意味着稍有不顺情绪就翻转。普通投资者宜谨慎参与此高度关注高波动的板块,不盲目跟风,在享受机会的同时做好风控。

  4. 护城河与竞争力: IonQ在量子计算领域的主要竞争优势源自其离子阱技术路径。离子阱被认为在量子比特保真度、长相干时间等方面有固有优势,IonQ的实验成果验证了这一点:其量子门操作精度达到行业领先水平。同时离子阱量子比特可互相任意连接(全连接),在拓展算法上灵活性高,不像超导比特受连线拓扑限制。这使IonQ有望以较少比特实现更高有效计算能力。此外,IonQ在软件栈方面也有积累,提供了兼容主要框架的开发工具,降低用户上手门槛。再加上IonQ与亚马逊、微软等深度合作,使其成为这些生态系统中默认的量子硬件提供方之一,渠道优势明显。可以说,IonQ的护城河一部分在于技术,另一部分在于先发抢占了市场心智和合作网络。尽管IBM、Google硬件实力雄厚,但它们没有对外开放投资且客户定位不同,IonQ作为独立公司反而吸引了一些希望深度绑定的客户资源(例如金融机构或国家实验室与其直接签订合作协议)。然而,IonQ的护城河也不是高枕无忧:量子计算毕竟处早期阶段,各技术路线竞争激烈,谷歌的超导方案、PsiQuantum的光量子方案等都有可能后来居上。如果他人率先实现百万量级可纠错量子机,IonQ现有优势可能被抹平。因此IonQ必须持续投入研发保持技术领先,同时扩大商业生态让客户沉淀下来,以免将来客户轻易转投他人。目前IonQ受追捧有部分原因是稀缺性和*“蹭AI热点”*(一些投资者简单把AI和量子联系,认为都是革命技术),但也确实基于其业界领先的位置。它的竞争力经过专业评估是较强的,不是徒有概念。综上,IonQ拥有一定护城河,但还需要不断加深壕沟,比如通过知识产权和客户关系构筑壁垒。与前述D-Wave类似,IonQ在市场热炒中被给予高光,但其真正的护城河将由接下来几年能否率先实现有用量子计算来决定。如果成功,其品牌和技术壁垒将形成正反馈,极难撼动;若失败,当前的优势也会被时间冲淡甚至沦为笑柄。因此,对IonQ既要看到独特领先的一面,也应保持对行业不确定性的清醒。

  1. 主营业务与行业地位: MP Materials是一家美国稀土矿业公司,拥有美国唯一运营的稀土矿山——加州Mountain Pass矿。稀土元素(如钕Nd、镨Pr等)是制造高性能永磁体的关键原料,广泛用于电动汽车电机、风电机组、国防装备等。MP Materials主要开采NdPr精矿,并计划实现从矿石到磁材的一体化生产。过去几年,公司一直将精矿出口到中国分离加工,再进口氧化物。但MP正逐步在美建设自己的分离设施和磁材工厂,实现供应链本土化。在行业地位上,MP Materials堪称**“美国稀土复兴”的核心企业**:美国曾是稀土大国,后被中国赶超,如今MP肩负着美国重建稀土供应链的重任。全球来看,中国目前控制着约70%稀土开采和90%加工产能。MP是少数几个非中国主要稀土供应商之一(另有澳大利亚Lynas等)。因此MP不仅是商业公司,也有战略意义。公司与新能源汽车巨头通用汽车(GM)签有长期供应协议,将在德州建永磁材料工厂以供GM电机使用。总的来说,MP在西方稀土领域地位举足轻重,被誉为“稀土中的中东石油”,象征意义大于规模本身。

  2. 股价涨幅驱动因素: MP Materials的股价在2023-2025年经历了先抑后扬。2022年由于稀土价格下跌,股价低迷。但2023年下半年起,一系列利好推动MP股价重拾升势。

(i) 政策/地缘驱动: 2023年中美贸易紧张背景下,中国对部分战略材料(镓、锗)实施出口管制,引发市场担忧稀土可能成为下一步目标。这使投资者重新重视MP作为美国本土稀土供应的价值。果然,2025年7月美国国防部与MP达成重大交易:五角大楼出资4亿美元购买MP优先股,成为其最大股东,以支持MP扩充国内产能。五角大楼还承诺包销MP未来新建磁材厂10年的全部产出。这相当于给了MP一个**“政策保险”**和稳定收入预期,大大利好股价。

(ii) 基本面利好: 受上述协议影响,MP从2025年起停止向中国出口精矿,将产出留待本土加工。供给缩减导致全球稀土价格特别是中国市场价格快速反弹。2025年8月,NdPr氧化物中国价格飙升至¥632,000/吨(约$88/kg),较7月初上涨40%,创两年新高。价格大涨将直接改善MP盈利能力,加上美国政府还承诺按$110/kg为基准对MP进行差价补贴 (当时$110/kg约为中国价的两倍)。这意味着MP哪怕不对外出售,也能按高价获得政府托底收益,可谓基本面焕然一新。

(iii) 市场情绪: 上述硬利好叠加,引发资本市场对MP的看好。2025年8月相关消息公布后,稀土板块股票集体走强,MP股价应声上扬。投资者预期MP将从被中国压制的境况中翻身:既享受高价格,又得到政府投资支持。机构分析师纷纷上调目标价,一些对冲基金也增加配置,看重其战略地位。这些因素推动MP股价自2023年低点~$20一路回升至2025年中$35以上,累计涨幅估计超过75%。可以说,地缘政治+政府资金+稀土涨价一起构成了MP股价上涨的核心驱动力。

  1. 估值泡沫与基本面背离: 相较其他动辄数倍飙升的新兴概念股,MP Materials的股价涨幅并不夸张,而且有实在的盈利改善支撑,因此泡沫成分相对较少。公司2022年曾盈利,当时NdPr价格高企。2023年稀土价跌导致利润下滑甚至亏损,但随着2025年价格回升和政府支撑,公司业绩前景大为改善。考虑到美国政府锁定$110/kg作为补偿底价,MP的NdPr业务几乎可确保高利润运行。以Mountain Pass年产1万吨氧化物计算,按$110/kg销售年收入可达$11亿,利润也相当可观。因此,MP目前的市值(三四十亿美元量级)并非离谱,相反考虑其战略地位,估值在资源股中偏高也是合理的。可以说,MP股价上涨在很大程度上反映了基本面的真实利好,而非空转泡沫。当然,短期市场情绪也可能造成波动,例如价格冲高后的回调或资金快进快出导致震荡。但整体上,MP估值与其资源价值、补贴现金流等并没有严重背离。如果一定说泡沫,可能体现在中长期的不确定上:当前高价和补贴能持续多久?如果几年后稀土市场再度供过于求、政策支持减弱,MP利润可能缩水,那现在的估值看起来就偏贵。然而美国政府的介入表明其对战略资源不惜成本,这给MP的估值提供了托底因素。因此MP股票的泡沫风险相对可控,不像某些纯炒概念公司那样悬殊。近期股价已较历史高点仍有距离(其2021年曾摸高$50),说明市场情绪也较理性。总体而言,MP当前估值水平与基本面改善基本匹配,涨势更多源自利好兑现而非虚幻炒作。

  2. 商业模式的可持续性: MP Materials的商业模式正从单一矿产品供应向全产业链磁材供应拓展。上游开采本身是一锤子买卖(随市场价格波动),而下游磁材制造则可捆绑长期客户(如汽车厂商)。MP与通用汽车合作建设的磁材工厂计划2025-2026年投产,届时公司业务将覆盖从矿石到磁体整个链条。这个模式一旦打通,将非常可持续:因为永磁体需求随着新能源和国防应用快速增长,而客户更倾向于稳定可靠的供应伙伴。MP将以材料+零部件双重身份嵌入供应链,实现产品附加值提升。例如,汽车厂商愿意签多年合同确保磁体供应(正如GM所做),MP则获得锁定收益。这比过去卖精矿给中国波动性小得多。同时,政府作为隐形买家保障了基础利润(包销磁体产能给军方),更强化了持续性。当然,前提是MP如期建成精炼和制造设施,掌握住下游技术。这些对一个原本采矿公司是挑战,好在MP已招聘全球顶尖磁材专家、并通过小规模试产掌握了分离工艺。可持续性的风险在于:稀土市场存在周期,如果未来价格暴跌,政府支持退出,MP会否重蹈覆辙。但现在美国显然将稀土列为长期战略,自给自足是大方向,不大会让唯一企业倒下。另外,MP的Mountain Pass矿储量和品位较高,可持续开采数十年,这是持续供货的硬件保障。因此总体上,MP当前调整的商业模式(垂直一体化+绑定客户)颇为可持续。它把自己从完全商品属性转变为关键材料供应商,议价能力和盈利稳定性都增强。这种模式一旦成熟,将很难被替代,对客户和国家都不可或缺。所以,只要MP按计划执行项目,未来商业模式将是稳健且具成长性的。

  3. 行业趋势、估值水平与市场关注度: 全球稀土行业受宏观和政策影响极大。近年来电动车和风电崛起拉动磁性材料需求,中美博弈又凸显供应链安全问题。总体趋势是西方国家致力于摆脱对中国稀土的依赖,这对MP等企业是重大利好。美国、欧盟都推出了关键矿产法案,提供资金和政策支持本土项目。行业估值方面,过去稀土公司估值随周期波动很大,熊市时市盈率很低甚至亏损,牛市时则暴利。现在因战略属性,市场给予稀土股一定溢价。例如Lynas的估值一直不低。MP在得到政府投资后,更被视作“准国防供应商”,估值体系接近成长股而非传统矿业。市场关注度上,MP近期频繁出现在新闻:五角大楼投资成为各大媒体报道焦点,稀土价格上涨也引发分析师讨论全球供应格局。资金流向看,原本跟踪稀有金属的小众资金如今被更广泛的ESG和产业政策主题资金所补充。华尔街意识到MP不仅讲周期故事,更讲科技和安全故事,因此一些科技基金也开始配置。散户社区对MP兴趣相对有限(稀土话题专业性强),倒是长线机构投资者占比较高。这使MP股价波动率低于那些概念炒作股。随着行业趋势转好,MP基本面改善,这支股票已从前两年的“无人问津”转为“机构座上宾”。需要注意的是,稀土价格未来难免波动,如果中国增产或需求不及预期,行情可能回落,届时MP股价也会受牵连。但由于现在市场相信美国政府会确保MP盈利(通过补贴或采购),对冲了部分周期风险。总之,行业大势对MP有利,市场关注度和资金支持度都提升,使其估值相对稳定在高位。如果后续MP顺利完成磁体厂建设并产出产品,关注度将进一步提高,其身份将从矿业股蜕变为新能源材料领军,这对估值也是利好。眼下投资者普遍看好其中长期前景,认为稀土这个冷门领域终于迎来高光时刻,MP正站在风口。

6.护城河与竞争力: MP Materials拥有的Mountain Pass矿本身就是一大护城河。这是目前北美最大的稀土资源,富含NdPr,开采成本具有竞争力。其他想进入美国稀土开采的项目,要么储量品位不足,要么环评艰难,短期内难以撼动MP在美国的资源独占地位。其次,MP正构建从矿到磁的一体化能力,一旦打通,其竞争力将很难复制。中国以外几乎没有公司能自主完成稀土从提炼到磁体的全流程(澳大利亚Lynas也只是做到氧化物阶段)。MP将成为西半球唯一全流程供应商,地位独特。这样的护城河在国际供应链重组背景下尤为珍贵:美国和盟友的相关需求大概率首先找MP合作。此外,MP与大客户和政府的绑定也形成壁垒。例如GM给了长约、五角大楼参股支持,等于锁定了MP的市场和资本,其他新进入者很难获得类似背书。MP的技术团队包含许多前Molycorp(Mountain Pass前运营商)专家,在矿石处理、分离工艺上经验丰富,这是隐形竞争优势。可以说MP的护城河由资源+技术+政策+客户多因素构成,比较牢固。当然,从全球看,MP规模仍不算大,中国企业在成本和链条配套上有整体优势。但在西方市场,MP几乎是无可替代的,这本身就是巨大竞争力。有人可能质疑稀土并非稀有,他国也能开发。但开发需要时间和资金,美国本土此刻只有MP实业在运转,这个先发身位足够让其享受多年红利。至于是否蹭热点,MP其实是被热点追上。早几年稀土不热门时它踏实生产,如今热点来了,它是实至名归的受益者而非赶潮炒作。总之,MP的独特竞争力和护城河来自不可轻易复制的资源禀赋和供应链地位,辅以政策优势。短期看,它并非“蹭热点”而涨,而是基本面和大势均支撑。未来只要管理层稳健运营,持续提高下游技术,MP有望长期立于不败之地,成为当之无愧的战略资源巨头。

8. HOOD – Robinhood Markets(金融科技)

Section titled “8. HOOD – Robinhood Markets(金融科技)”
  1. 主营业务与行业地位: Robinhood是一家美国金融科技公司,以零佣金股票交易App起家。它通过简单友好的移动端界面,吸引了大批年轻一代投资者,颠覆了传统券商的佣金模式。Robinhood目前提供股票、ETF、期权和加密货币交易,并拓展了现金管理、借贷(保证金交易)等服务。其商业模式主要靠“订单流支付”(PFOF)赚取收入,即将用户交易指令发送给高频做市商,由后者返佣。此外,用户的闲置现金产生的利息收入、订阅服务(如Robinhood Gold收取月费)也是营收来源。2019年起老牌券商纷纷响应降佣,但Robinhood已经抢占大量市场,其MAU(活跃用户)一度超过2200万,客户资产也快速增长。经过数年发展,Robinhood已不仅是初创公司,而成为美国个人投资市场的重要参与者之一。2021年在meme stock热潮中,Robinhood因限制交易惹争议,但也进一步打响知名度。如今Robinhood在散户券商领域的市场地位依旧显赫,虽面临老牌券商(如嘉信、盈透)竞争,但凭借品牌和用户体验仍占据年轻客群心智。

  2. 股价涨幅驱动因素: Robinhood自2022年触底后,2023-2025年股价强劲反弹,在2025年更是出现爆发式上涨。从低点算起涨幅高达1600%。推动这轮飙升的因素包括:

(i) 基本面扭转: 2023年美国进入加息周期,这对Robinhood竟是利好——由于用户资金余额利息收入暴增,公司营收大幅提升。2024年Robinhood收入达29.5亿美元,同比增长58%,并首次实现全年净利润约14亿美元。也就是说,Robinhood不仅告别亏损,还摇身变成高增长、高利润公司。这极大修复了市场信心。

(ii) 新产品和增长策略: 公司推出了多项新功能保持用户活跃,如提供高达4%收益的现金账户、延长交易时段甚至尝试24小时交易服务,以及进军退休账户领域(提供IRA账户并赠送1%存款匹配)。这些举措拓宽了用户群和资产留存,提高了每用户收入。

(iii) 市场交易活跃度回升: 2023-2025年股市回暖、科技股大涨,引发散户重回市场,交易量和资产净流入增加,Robinhood作为散户平台受益。此外,加密货币行情自2023底回升,也提振了公司加密交易收入。

(iv) 资本市场青睐: 业绩转好后,华尔街开始重新评价Robinhood。2025年9月标普道琼斯公司宣布将Robinhood纳入标普500指数。此消息直接推动股价单日跃升15%以上。被纳入旗舰指数意味着被动基金需配置其股票,极大提高需求。

(v) 散户情绪二次点燃: 具有戏剧性的是,Robinhood股票本身也成了一只散户追捧的标的。一些原本在Robinhood平台交易的个人,开始买入Robinhood自家股票,形成某种“自强化”效应。社交媒体上,$HOOD话题热度上升,许多用户将其视为金融科技复兴的象征。一位分析师形容:“Robinhood通过推出可信的新举措,为自己赢回了信用,为未来十年铺路”。这种乐观预期也助推股价。综合以上,Robinhood股价大涨的逻辑是基本面反转为底,市场偏好和题材推动为翼,尤其是盈利和指数纳入这两大催化剂,引燃了股价火箭。

  1. 估值泡沫与基本面背离: Robinhood当前市值约达900亿美元规模(2025年9月),相当于2024年营收的30倍以上、静态市盈率约60-70倍。这相较传统金融券商显得偏高,但放在高成长科技股中并非离谱(例如同属FinTech的部分支付公司也有类似倍数)。考虑其58%的年度营收增速和盈利释放,给出高估值可以理解。然而股价在短期内上涨过快过猛,也引发泡沫担忧。有分析指出,Robinhood股价一年多涨了16倍,但营收只翻了不到2倍。这种股价增幅远超业绩增幅的情况,说明市场情绪推动成分很大。特别是被纳入标普后,指数基金被动买入推高股价,这部分上涨并非基本面驱动。尽管当前公司盈利良好,但能否持续高增长还有不确定性:利率见顶后利息收入增速会放缓,交易量也受行情影响。如果经济转差或市场低迷,Robinhood业绩易受冲击,那现在按高成长给的估值就显得泡沫。也有观点认为Robinhood股价已过度反映未来乐观,甚至重现了2021年IPO初期的狂热(当时市值一度破$600亿后腰斩)。目前来看,Robinhood估值虽高但尚有业绩支撑,不像纯概念股泡沫那么空洞。只是相比传统金融公司,它的定价更多考虑用户扩张和创新潜力而非稳健收益。因此若这些潜力兑现不及预期,估值会重估。总的说,Robinhood股价上涨包含了一定泡沫成分,但尚未到极端失控地步。不过市场已有警惕声音,认为当前股价由情绪驱动有夸张成分。普通投资者应意识到,高成长FinTech公司的估值往往波动大,当前价位已经隐含相当乐观预期。

  2. 商业模式的可持续性: Robinhood的商业模式经过早期补贴获客阶段,已逐步走向自我造血,具备持续发展能力。零佣金交易本身并不直接收费,但Robinhood通过PFOF、利差收入和附加服务成功变现用户价值。2024年,其收入构成中利息收入占比较高(因为高利率环境),这部分在利率下降时会收缩。然而交易佣金(PFOF)和期权、加密等交易的回扣将会随用户活跃度长期贡献。Robinhood还可以扩展金融产品线,比如推出借记卡、储蓄账户、甚至小额贷款等,实现FinTech生态闭环。目前其注册用户数仍庞大,只要平台黏性保持,未来可挖掘的服务空间很大。公司也在努力提高客户生命周期价值,如推出IRA账户留住长期资产、开发教育内容提高交易频率。这些举措都增加了模式的稳固性。挑战在于:

(i) 政策监管: 订单流支付模式一直受SEC质疑,若未来监管禁止PFOF,Robinhood需改变变现方式(可能转向收取小额佣金或扩大订阅服务)。这将考验其转型能力。

(ii) 用户留存: 过去Robinhood用户增长与牛市高度相关,一旦熊市或无热点,用户交易兴趣降低,营收就下滑。这也是2022年的教训。因此其模式要长期可持续,需要降低对交易热度的依赖。发展稳定收入如管理费、利息等正是出于这点考虑。

(iii) 竞争: 大型券商已取消佣金,以更全服务和品牌吸引成熟客户。

Robinhood要持续成长,需要不断创新(如24/7交易等)来保持差异化。总的来说,Robinhood模式本身已经验证能赚钱(2024年盈利便是明证),持续性的关键在于适应环境变化。只要监管环境不做颠覆性改变,Robinhood凭其庞大用户群和领先的产品体验,保持收入稳增问题不大。更何况,它手握大量年轻投资者数据和行为习惯洞察,未来可拓展贷款、财富管理等更高价值业务,提高ARPU。可以认为Robinhood模式已经度过烧钱换规模阶段,进入盈利模式,但需警惕外部风险。可持续并不意味着高枕无忧,公司仍需战略前瞻以应对周期性波动和政策变动。例如,提前谋划在利率下行环境下如何补足收入。总体而言,其模式具备一定弹性和扩展性,只要保持创新,持续性较为乐观。

  1. 行业趋势、估值水平与市场关注度: 整体来看,金融服务的数字化和大众投资热情上升是大趋势。Robinhood赶上了千禧一代理财觉醒和科技赋能金融的浪潮。疫情期间大量散户入市、meme股票狂热都验证了个人投资者力量。虽然风潮有起伏,但长期居民储蓄向资本市场迁移是方向。券商行业也在演变:免费交易成标配,业内竞争转向产品和用户体验。Robinhood引领的变革倒逼传统券商转型,但这些老牌券商的客户年龄结构偏大,短期难完全渗透年轻市场。因此Robinhood有自己的护城河客户群。行业估值方面,传统券商如嘉信理财PE十几倍,互联网券商盈透PE三十多倍,而Robinhood给予科技股溢价PE70倍以上,可见市场把它当科技平台看待而非纯券商。这种估值差在2025年因其纳入标普500和高增长预期得以维持,但未来会否收敛取决于增速能撑多久。市场关注度上,Robinhood无疑重回舞台中央:从2021年的风波到2022的沉寂,再到2025的高光,公司始终话题不断。近期媒体报道它股价狂飙、盈利惊人、进标普500等,使其在投资者中热度提升。甚至有人将其与AppLovin等并称“新科标普成分科技股”,研究其投资价值。散户自然不会错过讨论它的机会,因为很多人本就是其用户。可以说Robinhood已从争议角色转为美国资本市场一个成功案例符号。这带来的好处是品牌进一步提升、用户信任加强。资金层面,指数基金和主动基金都增持,其股东结构更趋机构化。这可能降低散户爆炒带来的极端波动,但也意味着股价更多跟随大盘和价值衡量,而非情绪主导。当前市场对Robinhood的关注主要集中在:“盈利模式站稳了,下一步增长靠什么?”如果满意答案(如国际扩张、客户资产提升等),关注度和估值可持续;否则可能热度转移。总的来说,Robinhood所处行业蓬勃发展,市场给予其厚爱,关注度还将维持较高水平,但投资者会更理性地根据业绩增速调整估值,不会像纯概念那样盲目推崇。

  2. 护城河与竞争力: Robinhood的护城河主要是庞大的年轻用户基数和极致简洁的产品体验。它成功将股票交易app做出了社交软件般的易用性,让一代对传统金融畏难的人群也能上手投资。这种产品设计和品牌形象上的先发优势,已深植用户心智——很多美国年轻投资者的第一只股票就是在Robinhood上买的。这种用户黏性和口碑效应短期内竞争对手难以撼动。另外,Robinhood运营多年形成的数据和运营know-how(例如如何通过游戏化界面刺激交易、如何管理峰值流量)也是软实力护城河。相比之下,大券商的app往往复杂冗余,难以迎合入门用户。Robinhood还通过扩展产品线(加密币、选项交易等)把用户留在自己生态,提供一站式投资。虽然其他券商也有这些功能,但用户对Robinhood的情感连接更强。另一方面,它的竞争力也面临一些挑战:技术上说,零佣金模式已无门槛,别的平台也能提供免费交易,因此护城河不在价格,而在用户关系。若用户成长后需要更专业服务,可能转向别的平台,这是Robinhood需要防范的客户流失风险。因此其战略之一是增加金融知识教育、提高平台深度功能,以留住用户生命周期更长时间。目前看,Robinhood核心用户仍较活跃,对平台忠诚度可以。最后,是否蹭热点?Robinhood此次股价大涨,一部分确实沾了大市火热和科技股重估的光,但公司自身基本面扭转和努力也功不可没。它并非通过炒概念噱头来吸引眼球,而是真实改善了盈利,这种上涨相对良性。护城河方面,Robinhood凭借品牌和用户规模已经建立起壁垒,但需持续巩固。例如,通过提高安全性和服务品质赢得老用户信任。值得欣慰的是,Robinhood近来动作显示出从激进增长转向稳健经营的倾向,这有助于长期竞争力提升。总的来看,其优势独特而明显,但仍要与金融巨头长期周旋。只要持续创新并关切用户需求,Robinhood的护城河可以越挖越深,从一时流行变成真正基业长青的金融平台。

9. RKLB – Rocket Lab USA(航天火箭与空间系统)

Section titled “9. RKLB – Rocket Lab USA(航天火箭与空间系统)”
  1. 主营业务与行业地位: Rocket Lab是一家美国航天公司,主营小型运载火箭发射服务和航天器制造。其Electron火箭高约18米,承运能力300公斤级,专攻小卫星进入低地球轨道市场。自2018年投入商业运营以来,Electron已成功发射数十次,是SpaceX之外全球最频繁的轨道发射器之一。除了火箭,Rocket Lab还有Space Systems部门,提供卫星平台(Photon卫星巴士)、航天组件(如星上电子、太阳能板等)以及Mission管理服务。Rocket Lab正在研制新一代中型可重复使用火箭Neutron,运力达8吨级(对标SpaceX Falcon 9的一半左右),计划2026年首飞。在行业地位上,Rocket Lab被视为全球航天商业化浪潮中仅次于SpaceX的重要玩家。它以高度可靠的小火箭填补了市场空白,发射量在欧美民企中排名第二。随着SpaceX专注大火箭及星链项目,小卫星独立发射市场上Rocket Lab几无对手(竞争者如Astra已暂停发射)。同时Rocket Lab通过并购数家航天供应链公司,成为小卫星“一站式”解决方案提供商,具备整星制造到发射的垂直整合能力。目前公司已积累10亿美元以上订单储备。总之,Rocket Lab在新兴商业航天领域扮演**“小而全”的领导者**角色,其成功证明小火箭有商业可行性,也为全面挑战SpaceX做好了铺垫。

  2. 股价涨幅驱动因素: Rocket Lab股票在2023年至2025年间出现大幅上涨。据报道,自2023年初以来累计涨幅高达1000%左右。具体推动因素包括:

(i) 财务业绩高速增长: 公司2024年营收约4.36亿美元,同比大增77%,Q4单季收入达1.32亿美元,同比跳增121%。发射频次和Space Systems交付量双双提升,带动业绩连创纪录。投资者看到Rocket Lab由创业期向规模化经营迈进,信心倍增。

(ii) 订单与合同捷报频传: 2024年Rocket Lab宣布签下Neutron火箭的首份发射合同,是一家大型卫星星座运营商的多次发射协议。这表明Neutron尚未首飞即获得市场认可。消息公布后,公司股价单日飙升50%。此外,小火箭发射服务也赢得新客户订单,包括美国政府任务及商业星座发射。这些订单支撑其未来增长。

(iii) 航天领域投资热情回归: 经过2021年的SPAC潮起伏,2023-2024年SpaceX估值飙升、星链成功盈利,让资本重新聚焦航天板块。Rocket Lab作为少数上市标的自然受益,被视为SpaceX外投资太空经济的首选标的。

(iv) 公司执行力与里程碑: 2024年Rocket Lab成功将Electron首次用于美国本土发射(维吉尼亚州基地),扩充了发射能力。此外,其Space Systems部门斩获美国国防航天发展局(SDA)卫星制造大单,巩固政府订单来源。技术上Rocket Lab也实现了Electron一级火箭部分回收试验,显示出向可重复使用迈进的潜力。这些积极进展提升了市场对其管理层执行力和长期竞争力的认可。

(v) 市场情绪与概念: 航天概念近两年不算市场最热,但Rocket Lab以稳健表现赢得了二级市场“投票”。尤其是在SpaceX尚未上市、Virgin Orbit破产、Astra停滞的情况下,Rocket Lab成为航天投资者集中火力的对象。社交媒体上,有投资者喊出“RKLB将是下一个SpaceX”的口号,引发一定跟风买盘。综合而言,Rocket Lab股价上涨有扎实业绩支撑,也有市场对其未来故事的提早布局。高速增长叠加关键合同突破,令资金相信其成长路径清晰,从而推高估值。

  1. 估值泡沫与基本面背离: 伴随股价暴涨,Rocket Lab的估值也来到了较高水平。当前市值约130-140亿美元,对应2024年营收的30多倍、尚未盈利的状况。这个估值在航天制造企业里属于极高(传统卫星公司普遍PS<5)。因此不可否认,Rocket Lab估值中包含了对未来的丰厚溢价。市场基本按高科技成长股给其定价,而非按军工或航天制造业传统估值。这有一定泡沫成分。不过与很多无营收概念不同,Rocket Lab已有可观收入和订单,基本面在快速向好,估值泡沫相对“有根”。投资者赌的是其未来几年能继续50%以上增长,并在Neutron成熟后进一步跃升。如果这些达成,则当前估值或可被业绩渐次消化。反之,若任何环节不及预期(例如Neutron延期或成本超支),股价将面临较大回调风险。当前股价较一年前已涨十倍,短期确实透支不少利好。某些独立研究质疑其Neutron订单的真实盈利水平,认为公司对外宣传过于乐观。这提醒我们泡沫可能存在——当投资者只看好的一面,忽略潜在问题时,股价就会脱离现实基础。Rocket Lab高估值也寄望其Space Systems持续中标大项目,但航天制造往往是低毛利竞争激烈领域,如达不到规模效应反而拖累利润。因此Rocket Lab需要证明自己不仅能扩大营收,也能改善利润率。总之,目前Rocket Lab估值虽然高企,但与同处新兴太空赛道的SpaceX等私募估值相比,还算合理范围(SpaceX二级市场估值达$1500亿)。泡沫程度尚不极端,但明显比传统公司高很多。股价与基本面并非完全脱节,但乐观预期是主要推动。投资者应密切关注公司能否兑现增长承诺,否则估值回归压力会很大。

  2. 商业模式的可持续性: Rocket Lab的商业模式涵盖“小火箭发射+航天器制造”双主轴,实际上是在打造综合航天服务平台。这种模式可持续性的优点在于多元化:发射服务带来现金流和市场影响力,卫星/组件业务带来更稳定合同收入,两者相辅相成。Electron火箭已证明小卫星专属发射存在稳定需求(如对时间敏感的任务不愿等大火箭拼车)。随着近地轨道小卫星星座数量剧增(如IoT星座、观测星座等),Electron每年十几次的发射频率有望维持乃至增加,发射业务可持续。而Space Systems业务更是因各国星座计划而订单饱满,目前营收已占公司大头。比如Rocket Lab制造的Photon航天器成功执行NASA月球任务,证明其实力,后续拿下更多NASA/军方卫星订单。由于航天项目周期长,一个合同通常跨数年,提供持续收入来源。更重要的是,公司布局Neutron火箭意在进入更大市场(如发射大型商业卫星、部分载人任务)。如果Neutron成功,每次发射收入将比Electron高出一个数量级,而且可回收重复使用降低成本,将使Rocket Lab商业模式跳跃升级。虽然研制Neutron投入高昂,但一旦成败攸关公司未来十年增长,具有巨大可持续回报潜力。从风险看,该模式也面临挑战:太空行业竞争激烈且靠技术吃饭。SpaceX不断降价抢市,大型传统承包商也不会放弃卫星制造市场。Rocket Lab需持续技术创新和规模化生产来降低成本,保持价格优势和可靠性。发射业务尚未盈利,需要Neutron来改善经济性;Space Systems利润率也需通过规模摊薄固定成本。可持续的另一个关键是财政:Rocket Lab当前现金储备尚可支撑Neutron研制,但若成本超支或市场波动导致亏损扩大,可能需要融资。庆幸的是股价高位给了融资机会,已有消息称Rocket Lab考虑增发筹资扩产。这样做反而有利于长远持续发展。整体而言,Rocket Lab的模式前景光明,既有当前小火箭+卫星业务支撑,也有Neutron开拓未来蓝海,是可持续性较强的商业组合。但真正实现持续盈利和自由现金流仍需等待Neutron运营及业务更成熟。短期需要跨越研发高投入阶段,长期看只要太空经济需求增长,它的模式将顺势壮大。

  3. 行业趋势、估值水平与市场关注度: 商业航天行业正处于快速成长期。从火箭发射看,小卫星发射需求上升,SpaceX主导大部分市场,但也腾出部分缝隙给Rocket Lab等次一级玩家。各国政府也希望培育SpaceX外的选项,以增强太空进入能力的冗余,这对Rocket Lab有利。卫星制造方面,全球进入“卫星星座”时代,一次就数百颗卫星的项目频现,需要可靠供应商生产。Rocket Lab恰好踩中这一趋势,其订单从SDA、亚马逊等源源不断。行业整体估值在2021年SPAC泡沫后曾冷却,但2023年起随AI、太空新的成功案例而回暖。当前SpaceX仍是未上市巨头,Rocket Lab作为领头上市公司,被市场给予“成功者溢价”。关注度上,Rocket Lab已成为航天板块晴雨表,每季度的发射数、营收增速都被投资者紧盯。2024年Q3业绩出炉后,其公布55%营收增长和Neutron合同,股价大涨也引发媒体广泛报道。一些知名投研机构和媒体如摩根士丹利、CNBC开始将Rocket Lab列为“太空经济代表股票”跟踪,这提升了其主流认知度。社交媒体和Reddit上,更有投资者把RKLB当成十年百倍潜力股讨论,虽未大规模出圈但在航空航天爱好者圈里人气不低。估值方面,目前Rocket Lab高PS倍数显然基于对其未来的强信心。如果Neutron进展顺利,估值高企能维持;否则二级市场也会调整期望。由于板块内成功范例不多,Rocket Lab类似独苗,因此关注它的资金容易集中,造成股价波幅大。而一旦未来几年更多航天企业上市或SpaceX上市,资金可能分流,对它的关注可能相对下降。但那已是后话。就当下,Rocket Lab因业绩亮眼和故事动人,在市场上热度颇高,也渐获价值和成长投资者共同关注,这点从股东结构逐渐机构化可见。只要航天赛道前景被认可,其高估值状态短期不会有大问题,但投资者也应对研发节点风险保持敏感,毕竟航天行业天生高风险高回报,情绪容易随消息大幅波动。

  4. 护城河与竞争力: Rocket Lab能够在激烈的航天创业潮中脱颖而出,靠的是技术、成本和垂直整合等多方面的竞争优势。首先是技术可靠性:Electron火箭在经历初期失败后,连续几十次成功发射,成功率接近98%,这是极难得的(不少小火箭初创都倒在成功率上)。可靠性既树立品牌,也降低保费和客户顾虑,形成声誉护城河。其次是成本和速度:Rocket Lab拥有新西兰专用发射场,流程自主可控,发射节奏频繁。相比之下,美国本土发射常要排队。Rocket Lab提供的“专人专用”快速发射服务对小卫星客户吸引力很大。这一运营经验和基础设施不是后来者短期内能复制的。第三,垂直整合能力:通过收购多家公司,Rocket Lab现在能自己生产火箭发动机、星载电子、卫星平台等关键环节。这既降低成本又确保供应链稳定,同时能对外出售组件盈利。这种横跨发射和卫星的模式,目前除SpaceX外少有人具备。它的护城河也在不断加宽:随着订单积累,公司逐步实现规模效应,制造和发射成本下降,进一步提高了竞争壁垒。此外,Rocket Lab研发Neutron是在为未来竞争奠基,如果成功,它将同时覆盖小中型发射市场,对潜在竞争者构成压制。相比起有些仅靠概念圈钱的航天SPAC,Rocket Lab的竞争力是真刀真枪练出来的,并非“蹭太空热”一日之功。可以说,它已经建立了行业第二名的地位,这是最大的护城河(客户和投资者会优先考虑它而不是无名新创)。当然,与SpaceX相比,它规模和资源仍差距明显,没有Elon Musk那样雄厚资本支撑。但Rocket Lab走差异化路线,在小市场深耕,也避开了直接冲突。未来几年若Neutron运营,它将成为唯一在商业上能挑战SpaceX部分市场的公司,其地位与护城河会更加巩固。现阶段Rocket Lab的风险更多来自技术进程,而非竞争威胁——因为真有实力的新竞争者还没出现。因此,与其说它蹭热点,不如说它用成绩证明了商业航天的可行性,才吸引了热点资金自主涌入。综上,Rocket Lab的护城河建立在可靠技术、发射基础设施、垂直一体化和品牌信任上,已经有相当深度。若继续保持执行力并拿下更大市场份额,其独特竞争地位将难以撼动,可望长期受益于太空经济增长。

10. PONY – Pony.ai Inc.(自动驾驶)

Section titled “10. PONY – Pony.ai Inc.(自动驾驶)”
  1. 主营业务与行业地位: Pony.ai是一家中美背景的自动驾驶技术公司,专注于研发L4级别无人驾驶系统,主要应用于机器人出租车(Robotaxi)和自动驾驶卡车领域。公司成立于2016年,总部位于硅谷和广州,创始团队来自百度无人车和谷歌无人车项目。Pony.ai通过AI算法、激光雷达等多传感器融合技术,让车辆在限定区域内实现无需安全员的自动驾驶。目前其Robotaxi服务已在中国的广州、北京等城市试运营,并在加州拿到无人驾驶测试许可。Pony.ai和丰田汽车有深度合作,曾获丰田等投资超过10亿美金,估值一度达$85亿。2023年底,Pony.ai通过与一家SPAC合并在纳斯达克上市,股票代码PONY,成为华人自动驾驶第一股。在行业地位上,Pony.ai被视作自动驾驶“第一梯队”公司之一,与美国的Waymo、Cruise和中国的百度Apollo齐名。其技术实力在加州路测数据中表现出色(MPD较高),车队规模达数百辆,在广州和北京开通了面向公众的收费robotaxi服务,是中国首批收费载客的无人驾驶队伍之一。总体而言,Pony.ai作为中美背景融合的自动驾驶独角兽,在全球自动驾驶行业占有一席之地,尤其在中美市场均有布局,这点独特。

  2. 股价涨幅驱动因素: Pony.ai股票自上市以来走势强劲。虽然具体涨幅取决于上市价格,但据报道2024年5月上市后一年内上涨约500-600%,股价从$10左右升至$60+。驱动其大涨的原因包括:

(i) 商业化进展明显: Pony.ai在2025年屡有重大业务里程碑。广州、深圳等地开始大规模Robotaxi常态化运营,并与当地合作伙伴开展收费载客服务。据披露,公司2025年Q2营收$2150万,同比增长76%,其中相当部分来自Robotaxi车费收入和合作项目。车辆队规模扩张迅速,2025年上半年新生产200多辆第七代无人车,计划年末前达1000辆运营规模。这表明其商业模式(车队运营+技术授权)开始落地,有真实现金流入。

(ii) 合作和订单: Pony.ai接连拿下高含金量合作。2025年5月,与Uber达成合作,将Pony.ai的Robotaxi接入Uber出行平台试点,让Uber用户叫到无人车。此举被视为无人驾驶向主流应用迈出关键一步。同年还宣布与卡塔尔国家公交公司Karwa合作,在多哈开展Robotaxi服务。在中国,Pony.ai与广汽、丰田等整车厂深化合作,获得Robotruck(无人卡车)订单用于港口运输等。这些合作既带来收入也提升品牌地位。

(iii) 资本市场和指数效应: 作为唯一上市的纯Robotaxi公司,Pony.ai吸引了全球科技投资者目光。2025年6月,Pony.ai被纳入纳斯达克中国金龙指数(HXC),使其一跃成为中国概念股板块的新宠。该指数包含阿里、京东等知名中概,Pony被选入代表对其市值和交易量的认可。消息公布两日内股价累涨逾20%。同时ARK基金等知名机构也小幅买入,对散户具有示范作用。

(iv) 市场炒作与AI概念: 2023-2024年AI相关股票大热,Pony.ai作为AI在出行领域的落地案例,自然受到资金追捧。投资者讲故事时常将其与ChatGPT、Tesla自动驾驶画等联系,认为其拥有AI算法和数据壁垒,是“AI+出行”黄金组合。这种市场情绪也推高了其估值。

(v) 公司治理与融资: Pony.ai上市初期管理层释放积极信号,比如规划了盈利时间表,称1000辆车规模可实现单车盈利。公司现金储备充裕(截至2025年6月有$7.477亿现金),烧钱速度可覆盖数年运营,减轻投资人担忧。这些因素叠加,使Pony.ai在上市后持续获得资本市场青睐,股价稳步上行并几次脉冲式大涨。归结起来,其上涨逻辑是技术兑现+商业推进+资本助力。

  1. 估值泡沫与基本面背离: Pony.ai当前市值约在百亿美元级别,以其近年几千万美元的年营收来看,估值远远超出现状,可谓透支了大量未来预期。截至2025年上半年,公司累计营收不过数千万美元,尚未盈利。然而资本市场按自动驾驶未来巨大潜力对其定价,股价与基本面存在明显脱节。市销率高达数百倍,市盈率更无从谈起(因仍在亏损)。这种估值水平绝对称得上泡沫。不过,需要区分的是:自动驾驶行业整体都处在前期投入期,Waymo、Cruise也远未盈利。因此对Pony.ai等的投资本就是押注其几年后可能形成颠覆性业务。从这个角度,市场给予泡沫式估值并不意外。然而风险在于时间和竞争:无人驾驶商业化落地常被证明比预期漫长,若Pony.ai不能在未来3-5年显著扩大收入,投资者耐心会消磨,股价可能重估。眼下由于Robotaxi运营刚起步,营收基数很低,而成本仍高(研发+车队折旧)。所以基本面暂不足以支撑市值。但也应看到积极一面:Pony.ai季度收入增速在70%以上,如果按此复合几年,销售额可能达到上亿美元,则届时PS倍数将自然下降。现在的估值泡沫可以说是对行业先驱者地位和中国市场垄断潜力的定价。投资者相信少数赢家通吃,因此不惜高价抢筹。只要Pony.ai保持技术领先且政策允许扩张,其未来市场空间确实非常大(光中国一国Robotaxi市场据估计到2030年可达千亿美元级)。因此当前泡沫或许包含理性成分。但不可否认短期内股价很脆弱,稍有负面进展都可能引发大跌。比如若发生重大事故或政策收紧,市场会重新审视风险而降低估值。总之,Pony.ai现阶段估值高企和基本面微弱形成强烈反差,属于高风险高回报的典型情况。普通投资者需有心理准备,承认其定价中相当部分是梦想溢价。如果梦想照进现实则皆大欢喜,否则泡沫破裂损失惨重。

  2. 商业模式的可持续性: Pony.ai的商业模式主要有两条线:一是Robotaxi运营,直接向公众或企业提供无人驾驶出行服务;二是技术解决方案输出,将自动驾驶系统集成到车企量产车型或卡车中,按许可费或分成收费。长期来看,Robotaxi如果能在多个城市大规模铺开,将成为类似网约车的平台生意,有规模效应且现金流可观。Pony.ai已经验证单车收入模型,例如在广州南沙收费Robotaxi日订单量增长快,未来千辆车满负荷运营年收入可达数千万美金量级。随着车队扩大和单车利用率提高,这块业务有潜力实现盈亏平衡甚至盈利,尤其在无人驾驶成熟后可省去安全员成本。然而Robotaxi模式需持续重资产投入车辆和运维,短期盈利难,全行业都在探索规模经济拐点。因此Pony.ai同时押注另一模式:与主机厂合作卖技术。例如与丰田合作开发Robotaxi车型、与小马智卡(PonyTron)推出无人重卡等。如果车企量产搭载其系统,公司可按车收取授权费或服务费。这是轻资产模式,可带来高利润率收入。问题是当前车企大多谨慎,量产自动驾驶车上市尚需时日。Pony.ai的可持续性取决于能否熬到商业化拐点。利好因素是:中国监管近来支持广州、深圳开展无人驾驶商业服务,政策友好;美国加州等也逐渐开放牌照。只要政策越来越松、市场越来越大,Pony.ai现金流会逐步改善。并且公司深得投资人支持,上市后也可适时融资续命。挑战则在于:无人驾驶技术还未完全成熟,长尾场景、极端天气等仍有难题,商业扩张不宜太快,否则风险提升。另外竞争对手如百度Apollo、Cruise、滴滴等也在角逐有限的牌照和市场,Pony.ai能否夺得领先份额很关键。综合看来,Pony.ai的模式具有革命潜力但也带有耐力赛性质,需要长期投入和持续优化。好的一面是,一旦技术和运营模式跑通,盈利将具爆发性(因为人力成本移除后,规模效益极高)。坏的一面是前期亏损会持续较久,对资本依赖高。可持续性在于其能否不断融资、迭代技术直至跑通模型。从目前进展判断,该模式在广州等地已验证可行性雏形,有继续推进价值。可以说Pony.ai模式长远看有希望可持续,但短中期还需要外部输血和政策庇护,不确定性较高。投资者要评估自己能否等到公司真正自我造血的那天。

  3. 行业趋势、估值水平与市场关注度: 自动驾驶行业自2018年后经历了炒作-低谷-再起的过程。2023年前后,随着Robotaxi在中美部分城市落地,行业热度回升。趋势上,各大玩家(Waymo、Cruise、百度等)竞相宣布里程碑,比如Waymo/Cruise在旧金山扩展载客、百度Apollo在武汉深圳开跑等等。资本市场也重新审视无人驾驶价值,毕竟其与AI技术进步高度相关,被视为AI最具颠覆性的应用之一。Pony.ai上市即是在这一背景下发生的。估值上看,自动驾驶领域公司普遍估值高、回报周期长,比如Cruise估值300多亿美元仍亏损数十亿每年。市场给予他们高估值,是押注未来某天Robotaxi盈利模式确立后,它们会垄断巨大出行市场,届时估值以营收甚至用户数衡量都将很可观。所以当前Pony等公司被给予“改变世界”级别的高估比率。和它类似的Velodyne等自动驾驶供应商市销率也曾达几十倍以上,可见板块整体泡沫化程度。不少长期资金愿意持有等待行业腾飞,但也有短炒资金趁概念热门时推波助澜,这都会加大估值波动。市场关注度方面,Pony.ai作为中概新星吸引了两边目光:中方视其为中国自动驾驶实力代表,美方投资者将其与Aurora等美企比较。上市后公司定期公布数据(如车队规模、里程等),科技媒体频繁报道。尤其Uber合作、指数纳入等消息在舆论上造就了一波波话题,使Pony.ai知名度陡增。在中概股领域,其与新能车、AI概念联动,市场炒作时经常几个概念混合,这既增关注也带来杂音。资本流向看,ARK等前沿科技基金对其青睐提高,但传统价值投资者暂时少问津,因为财务尚不符合传统标准。不过随着进入指数,不少被动基金也配置了它的股票,这稳定了一定需求。展望未来,行业趋势大方向仍是自动驾驶不断试点扩张,2030年左右或现大规模应用浪潮。在那之前,估值水平和关注热度可能起伏反复,每逢重大政策或技术新闻就刺激板块行情。当前Pony.ai是站在风口上的公司之一,受到很多科技爱好者和投机者关注。投资者需要明白这是一场长跑,行业远景光明但路径曲折。关注度高虽然好事(融资容易),但也意味着一旦有负面,其被放大检视甚至误读,对股价冲击更大。所以要有心理准备应对行业沉浮,不能被一时热度冲昏。

  4. 护城河与竞争力: Pony.ai的核心竞争力在于其自动驾驶全栈技术和双边市场经验。技术上,Pony.ai开发了自有的感知、决策、规划控制算法,积累了数千万公里以上的路测数据,对中国道路尤其了解。其多传感器融合方案在中国复杂交通环境下表现出色,这一点从其事故率低、加州路测几乎零责任碰撞可见一斑。算法和数据壁垒构成了主要护城河:对手复制需要大量真实路测和AI训练时间。此外,Pony.ai在中国和美国都拥有试运营经验,这使其政策关系和本土化能力突出。它在广州、北京率先拿到收费许可,就是和当地政府良好互动的结果,而国外公司在中国无法取得牌照,这是Pony的地缘护城河。反过来,Pony在美国也有基地,与丰田、Hyundai美国等合作,这种跨国资源配置也是独特优势。公司车队300辆左右在Robotaxi玩家中仅次于百度Apollo,规模带来数据优势和运营know-how。另一方面,Pony.ai拥有资金雄厚的股东(丰田、红杉等),在资本和产业链上有背书。这些因素都是其竞争利器。当然,自动驾驶领域强手环伺:Waymo技术领先且背靠谷歌,Cruise有通用和本田支持,百度Apollo在中国政策和生态上也占优。

Pony.ai相对这些巨头规模较小,但胜在灵活和两地通吃。它的护城河需要通过继续保持技术一流和迅速扩张运营来强化。目前Pony.ai在国内被认为技术仅次于百度Apollo,但商业化速度更快;在美国排在Waymo、Cruise之后,但也属第一梯队。这种夹在两头之间的位置其实有利,因为它可学习两边经验又弥补各自短板(比如比百度更懂美国市场,比Cruise更懂中国)。至于是否蹭热点,Pony.ai的崛起确实与AI风口密不可分,但它有真才实学支撑,并非概念炒作空壳。从拿到真实营收、合作大厂、公开路测数据等都能看出,它在认认真真做技术和业务。这与有些蹭自动驾驶热点圈钱的公司完全不同。可以说,Pony.ai已经建立了一定护城河,但要最终胜出仍需跑得比巨头更快。护城河够不够宽取决于未来2-3年其Robotaxi服务口碑和市场占有率。如果能够率先在一个大城市实现盈利运营,那将奠定极强的先发优势和政府信任,其他后来者难追赶。因此对Pony.ai,需要持续关注其技术迭代速度和商业扩张执行力。目前各项指标看,它并未掉队甚至局部领先,有望保持竞争强势。如果不发生战略错误或重大安全事故,Pony.ai的护城河将愈发明显,终有机会证明当初的高估值物有所值。

近期这些美股公司的股价大幅上涨,背后原因既有各自基本面亮点,也离不开市场情绪和宏观环境的推波助澜。从Opendoor、Robinhood等转亏为盈的实质利好,到Nebius、Oklo、IonQ等前沿科技企业引发的想象空间,再到Rocket Lab、Pony.ai此类行业新星实现的里程碑突破,我们看到了高估值故事中的合理部分。同时也必须清醒地认识到,不少股票当前价格已包含了大量未来乐观预期,存在估值泡沫和股价与基本面脱节的现象。投资者在追逐高收益机会时,应注意甄别上涨驱动力:是源于扎实业绩改善,抑或只是借热门概念炒作?

从长期商业模式看,多数公司处于新兴行业,能否持续增长取决于核心竞争力和护城河的建立。幸运的是,诸如Iris Energy整合清洁算力、MP Materials垄断本土稀土矿、Pony.ai技术领先双市场等,都展现出一定独特竞争优势。但也要看到,新技术和新模式往往充满不确定性:自动驾驶量产尚需时日,量子计算商用仍在试验,微型核能要克服监管和工程挑战。在资本狂热退潮后,唯有真正具备持续创新力和执行力的公司才能笑到最后。

对于普通投资者来说,面对这些高估值股票,需理性评估风险与机遇并存的局面。一方面,这些公司身处热门赛道,有望引领行业变革,早期布局可能获得丰厚回报;但另一方面,高估值往往意味着波动剧烈和回调风险。投资者应结合自身风险承受能力,做好功课,避免盲目跟风。在享受高成长故事带来股价上涨的同时,更要关注企业后续业绩能否兑现预期、行业竞争格局变化以及外部环境影响。一旦发现股价严重脱离基本面或市场炒作过度的迹象,就要提高警惕甚至止盈离场。

总之,这些近期暴涨的美股公司有的源于基本面拐点,有的借助概念东风。高估值背后既蕴含未来巨大机遇,也潜伏不容忽视的风险。对于看好其长期价值的投资者,应做好长期陪跑的准备,承受短期震荡;对于短线参与热点的投资者,更需设定纪律,见好及时止步。唯有深入理解每家公司背后的逻辑,保持理性和耐心,才能在追逐高增长的同时更好地控制风险、把握机会,实现投资收益与风险的平衡。

本文分析基于以下主要信息来源的公开报道和数据:

  • Opendoor (OPEN): 创始人回归管理层变动、新CEO任命及meme股票炒作相关报道
  • Iris Energy (IREN): 比特币挖矿转型AI基础设施、与Nvidia合作及业绩增长数据
  • Nebius (NBIS): 与微软174亿美元AI算力合同、从Yandex拆分及Nvidia支持情况
  • Oklo (OKLO): 微型核反应堆技术、美国空军基地合同及Sam Altman背书
  • D-Wave (QBTS): 量子退火技术发展、营收增长及量子计算板块整体表现
  • IonQ (IONQ): 离子阱量子技术、Oxford Ionics收购及量子计算商业化前景
  • MP Materials (MP): 停止对华稀土出口、美国政府支持及稀土价格变动
  • Robinhood (HOOD): 纳入标普500指数、业绩转好及估值变化分析
  • Rocket Lab (RKLB): Neutron火箭合同、营收增长及航天商业化进展
  • Pony.ai (PONY): Robotaxi商业化、Uber合作及自动驾驶行业发展

风险提示: 本文仅为信息分析,不构成投资建议。股票投资具有风险,投资者应根据自身情况谨慎决策。文中涉及的股价数据和公司信息以实际公告为准。

未来改变世界的潜力股:机器人、太空、量子、核能与基因治疗的未来布局

  • 机器人(Robotics)
  • 亚马逊 (AMZN)
  • 特斯拉 (TSLA)
  • Symbotic (SYM)
  • 太空行业
  • Spire Global (SPIR)
  • Rocket Lab (RKLB)
  • 雷神技术 (RTX)
  • 量子计算
  • IonQ (IONQ)
  • 谷歌 (GOOGL)
  • IBM (IBM)
  • 金融科技(FinTech)
  • SoFi (SOFI)
  • Robinhood (HOOD)
  • DLocal (DLO)
  • 新兴市场
  • Nubank (NU)
  • Grab (GRAB)

机器人技术正迅速普及于各行业,从仓储物流到制造业,大幅提升效率和降低人工成本。全球仓库自动化市场预计到2030年将达约595亿美元规模,2024-2030年复合增速约18.7%(来源:Grand View Research)。有专家预测未来几年机器人出货量年增速可达50%,仓库自动化市场每年仍有逾10%的增长空间(来源:McKinsey)。

这一领域的投资主题公司包括亚马逊、特斯拉和Symbotic,它们通过不同途径推动机器人技术的发展和应用。

亚马逊作为全球电商和云计算巨头,业务多元。2023年公司营收达5750亿美元,同比增长12%(来源:Amazon Q4 Report)。经营利润从2022年的122亿美元增至2023年的369亿美元,占营收比6.4%。自由现金流也由上一年的-128亿美元大幅改善为正的355亿美元。

这一财务进步反映了亚马逊核心业务的健康增长和成本控制改善。同时AWS云服务、高效物流支撑其稳健现金流和盈利能力。

在物流仓储领域,机器人和自动化需求强劲,电商繁荣和劳动力短缺推动企业投入自动化(来源:CFO Dive)。亚马逊作为行业领军者,持续加大仓库机器人使用。

目前亚马逊已部署超过100万台仓库机器人,成为全球最大自主移动机器人的制造商和运营商(来源:About Amazon)。仓库机器人有助于:

  • 加快订单处理速度
  • 降低运营成本
  • 应对电商订单激增的挑战

未来行业趋势如智能分拣、协作机器人等也有望由亚马逊等巨头引领。

亚马逊在机器人领域不断创新,其Kiva移动机器人开创仓储自动化先河。近年来公司推出多款自主机器人:

  • Hercules:可搬运1,250磅货架
  • Proteus:可自主导航的机器人

2025年亚马逊宣布开发名为”DeepFleet”的生成式AI模型,用于优化机器人调度路径,提高机器人车队运行效率10%。这些技术创新使亚马逊仓库实现更智能的调度和人机协同,大幅提升履约速度和准确性。

亚马逊目前市值高企,对应市盈率在40-50倍左右,考虑到其云服务和电商的双引擎增长,这一估值部分反映了未来增长预期。营收增长虽放缓至低两位数,但盈利改善明显,经营利润率从2022年的2.4%升至2023年的6.4%。

相较传统零售商,亚马逊估值溢价源于:

  • 技术投入和规模优势
  • 机器人技术提升内部效率
  • 可能孵化为对外服务的新增长点

亚马逊在机器人和物流上的大规模投入也面临挑战:

监管和劳工风险

  • 仓库自动化可能引发劳工部门对工作岗位流失的担忧
  • 监管政策变化可能增加运营成本

资本投入风险

  • 物流机器人需巨额资本开支
  • 若电商增长放缓可能造成资源浪费

技术风险

  • 仓库机器人系统复杂度高
  • 任何技术故障都会影响订单履约并损害客户体验

竞争风险

  • 沃尔玛等零售商也在跟进自动化投资
  • 需保持技术领先才能巩固优势

相比一些初创科技公司,亚马逊的机器人布局更注重长期效益,炒作成分不高。但仍需注意:

  1. 过度解读风险:机器人领域的成果主要服务于自身运营,并非独立盈利业务
  2. 人力替代夸大:亚马逊强调机器人与员工协同,部署机器人后还培训了70万员工从事技术维护等新岗位

应理性看待机器人的作用,避免将其神化为万能增长点。

亚马逊通过机器人技术大幅提升供应链效率,有望长期改变零售和物流业态:

消费者层面

  • 更快的履约速度和更低的成本
  • 享受廉价便捷的网购体验

社会层面

  • 释放人力从事更有创造性的工作
  • 推动行业标准演进(从仓储机器人到无人商店技术)

人性需求满足

  • 满足消费者对更快交付的渴望
  • 缓解仓库一线繁重体力劳动

总体来说,亚马逊的机器人实践为未来智慧物流树立了标杆,具有显著的世界改变潜力。

特斯拉已从纯电动车制造商成长为多领域技术公司。2023年财务表现:

  • 营收:967.7亿美元,同比增长约18%
  • 净利润:约150亿美元(较2022年增加约20%)
  • 净利率:约15.5%,盈利能力高于传统车企

财务要点

  • 包含一次性递延税收益近59亿美元,若剔除该项,核心净利相对较低
  • 通过汽车销售和能源业务保持强劲运营现金流
  • 持续投入产能扩张
  • 近年通过降价策略提升销量,但压缩了毛利率

在机器人领域,特斯拉将先进制造和人工智能作为未来战略重点:

工业机器人现状

  • 全球工业机器人需求旺盛,每年装机量高速增长
  • 特斯拉在汽车工厂大量应用机器人自动化生产(其加州工厂号称”外星人飞船”式自动化)

人形机器人潜力

  • 2021年公布Optimus人形机器人计划
  • 预期可用于工厂和生活场景执行危险或重复劳动
  • 埃隆·马斯克表示”Optimus有望贡献特斯拉未来价值的80%“(来源:Business Insider)

技术优势

  • 将AI技术(如自动驾驶中的视觉识别)迁移到机器人领域
  • 有望引领行业趋势
  • 潜在市场空间巨大,涵盖制造、物流、家庭服务等领域

特斯拉在机器人和自动化方面的创新主要体现在两个方向:其一是制造自动化,公司开发了大型一体化压铸机等技术,将数百个零件合而为一,简化生产流程,堪称“制造机器人”的革新。这提升了生产效率并降低成本。其二是Optimus人形机器人项目。2022年特斯拉发布Optimus原型,可以行走、搬运物体和简单互动。2023年推出改进版Optimus Gen2,行走速度提升30%,能做深蹲并精细操作鸡蛋等。特斯拉利用自动驾驶AI和传感器技术赋能Optimus,例如通过8个摄像头和FSD软件让机器人感知环境。虽然目前Optimus尚未成熟,但特斯拉计划2025年底前在自家工厂部署数千台Optimus,并宣称最快2029年前将产能提升到每年百万台。这种激进的创新尝试在业内独树一帜。

特斯拉的市盈率常年远高于传统车企,反映投资者对其成长性的预期。目前特斯拉动态P/E在60倍以上(根据盈利波动调整),显著高于汽车行业平均。这一定程度上是基于其在电动车市场的龙头地位和软件、自驾等增值业务前景。然而,若仅以汽车业务盈利来看,估值偏高,需要机器人、能源等新业务成长来消化。在机器人维度,市场或已部分计入Optimus的潜在价值(马斯克提及过万亿美元市值构想)。这种前瞻估值伴随高不确定性:如果机器人项目进展不及预期,估值面临回调风险。好的一面是特斯拉资金充裕(2023年末账上现金逾450亿美元),可支撑持续研发投入。因此当前估值在乐观场景下尚可论证,但投资者需认知其中蕴含的巨大发展假设。

特斯拉在机器人领域面临多重挑战。首先是技术风险:人形机器人涉及机器视觉、平衡控制、智能交互等难题,短期内难以实现完全自主实用。特斯拉曾高调展示Optimus,但现场机器人仍依赖人工遥控,被质疑“并非完全自主”。这表明技术尚不成熟,开发进度存在不确定性。其次,资金与投入回报风险:特斯拉将大量资源投入机器人和AI,短期看不到收益,需长期烧钱。宏观方面,竞争风险正增大,波士顿动力等公司也在研发人形或仿人机器人,特斯拉未必具绝对优势。此外,市场情绪风险亦不可忽视——若机器人项目反复跳票,投资者信心可能受挫,股价波动加剧。最后,监管和伦理风险:人形机器人若广泛应用,劳动替代引发的政策监管、公众接受度都是未知数。这些因素都可能影响特斯拉机器人愿景的实现。

是否存在误导性宣传或炒作: 特斯拉CEO马斯克以激进宣传著称,其对Optimus的展望引发大量关注。例如马斯克声称Optimus能将特斯拉市值推升至25万亿美元,并称外界对其**“严重低估”**。这样的言论有炒作嫌疑,给市场描绘了过于乐观的图景。一些分析师对此保持怀疑,特斯拉2024年机器人展示会上,Optimus虽表演了端茶、剪纸等,但被揭示很多动作仍需要人工介入,未达到宣传的自主水平。当时华尔街反应冷淡,马斯克身价因此单日蒸发150亿美元。可见宣传与现实尚有落差。此外,特斯拉过去在自动驾驶FSD上的夸大宣传也引来监管审查,这种倾向可能延续到机器人项目。因此,投资者需警惕其中炒作成分,关注实际技术进展而非 CEO 言辞。若机器人无法如期落地,大肆宣传反而会损害特斯拉公信力。

如果特斯拉Optimus计划最终成功,其潜在影响将是革命性的。从人性与社会需求角度,通用人形机器人可承担危险、重复的工作,使人类摆脱繁重劳作,有更多时间投入创造和享受生活。例如在工厂中,机器人可24小时作业,提高生产效率并降低工伤率;在老龄化社会,护理和陪伴机器人可以照料老人,缓解护理人员短缺。这些都回应了真实的社会需求。特斯拉的愿景是**“让体力劳动成为可选而非必需”**,这无疑具有乌托邦色彩,但若技术实现,将深刻改变生产方式。然而也需权衡潜在负面影响:大量岗位被自动化取代将要求社会系统做出调整,如完善再就业培训和社会保障。整体而言,特斯拉机器人项目蕴含颠覆性的正向潜力——就像汽车和互联网改变世界那样,人形机器人有望成为下一个通用目的技术(GPT)。特斯拉凭借在AI和制造的融合创新,有机会引领这场变革,为人类带来生产力飞跃和生活质量提升。

Symbotic是一家专注供应链仓储自动化的机器人公司。财务上属于高增长型企业:2023财年公司收入11.77亿美元,同比激增98%。增长来自其仓储机器人系统在大型零售客户中的快速部署。同期净亏损2.08亿美元,虽仍未盈利但亏损幅度相对收入扩张有所收窄。毛利水平逐步改善,2024财年已实现首个季度的正调整后EBITDA。公司账上现金约5.48亿美元,近期融资和业务现金流使其有资金支持扩张。整体而言,Symbotic处于“高投入换高增长”的阶段,收入翻倍增长但尚未盈利,需持续关注其盈利拐点和现金消耗情况。

行业发展前景与趋势: Symbotic所处的是仓库物流自动化赛道。全球零售和物流巨头正加速改造配送中心以应对电商高峰和劳动力瓶颈。预计未来几年仓库自动化支出持续上升,占物流企业资本开支的比例将超过三分之一。Symbotic的解决方案契合这一趋势:其机器人货物存取系统可显著提升仓库存储密度与拣选效率,满足电商时代对更快履约的需求。根据调研,自动化市场在经历2022-2023年的增速放缓后有望在2024年回暖。Symbotic的主要客户包括沃尔玛等大型零售商,在行业回暖及客户追加订单下,公司订单积压量充裕,未来几年有望持续高速增长。此外,AI技术融入物流机器人也是趋势,Symbotic已将机器学习应用于库存管理和路径优化,提高系统智能化水平。随着行业朝无人仓库、黑灯工厂发展,Symbotic这类专注端到端自动化的公司前景看好。

技术或产品创新: Symbotic的核心创新在于其端到端、AI驱动的仓储机器人与软件平台。该系统包含高速移动机器人(在高密度货架间穿梭取货)、智能机械臂(自动抓取和分类货物)以及中央AI调度软件。与传统自动化仓库不同,Symbotic采用模块化机器人取代固定输送带,可灵活应对订单波动。其高密度存储和机器学习算法使仓库空间利用率和拣货准确率达到新水平。Symbotic还创新性地将AI视觉用于货物识别和码垛优化,减少对人工介入的依赖。此外,公司与美国最大零售商沃尔玛成立合资企业,将Symbotic系统部署于沃尔玛旗下多个配送中心,实现规模效应。这种深入合作模式也是一种商业创新,加速了技术落地推广。总的来说,Symbotic将机器人技术、人工智能和供应链专业知识融为一体,打造出重新构想仓库的新一代解决方案,在仓储自动化领域属于产品力突出的创新者。

Symbotic自2022年上市(通过SPAC合并)以来股价大幅上涨,市值一度突破200亿美元,使其市销率(P/S)高达十数倍。这明显反映了市场对其未来成长的乐观预期。目前公司尚未盈利,传统估值指标如市盈率不适用,只能参考收入增长和合同储备。Symbotic近100%的年增长率

证明商业模式初步成功,而其服务的沃尔玛等客户体量巨大,增购潜力高。但需要警惕的是,如今估值已深度绑定未来成长:若增速放缓或盈利改善不及预期,估值将承压。从可比公司看,同属仓储机器人领域的企业多为大型工业公司的一部分(如西门子、海康机器人等)或尚未上市,很难直接对比。Symbotic的估值合理性主要取决于其能否在数年内实现可持续盈利和占据显著市场份额。目前高估值在一定程度上合理反映了其行业领跑地位和规模经济潜力,但也预支了不少成长空间。一旦执行偏差,估值回调风险不容忽视。

第一,客户集中风险:Symbotic相当部分收入来自沃尔玛单一客户,若该客户调整自动化战略或出现满意度问题,将严重影响公司业绩。第二,技术与实施风险:仓储自动化项目复杂度高,涉及软硬件集成和客户运营流程变革。如系统部署不顺或达不到预期KPI,可能导致违约或商誉受损。第三,竞争风险:市场上有多家玩家提供类似解决方案,如欧洲的Geek+、国内的海康机器人等,且一些物流巨头(亚马逊、京东)自研系统。Symbotic需持续保持技术领先和成本优势。第四,财务风险:尽管营收快速增长,公司尚处亏损,未来扩张需要资金投入。如果资本市场环境恶化、融资受限,将影响其交付新项目和研发投入。最后,宏观风险如客户零售业务放缓、劳动力成本变化等,也会改变自动化投资节奏。Symbotic作为新兴高科技企业,必须稳健管理上述风险,才能确保成长路径的可持续。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

相较消费互联网,公司在B端市场宣传相对务实,但股价走势显示出相当的市场炒作成分。Symbotic 2023年股价涨幅一度超过300%, 投资者对其“颠覆仓储行业”的故事反应热烈。这种热情有可能跑在基本面前面。需要注意的是,公司公布的订单积压和增长数据可信度较高,但投资社区可能对其 TAM(潜在市场)过于乐观。如果未来宏观环境导致客户放缓自动化投资,Symbotic增速回落,市场心理预期和现实可能脱节,股价面临调整压力。此外,Symbotic在宣传中强调其系统如何**“重新定义供应链骨干”**,这种措辞虽激动人心,但仓储自动化推广实际仍需一个漫长过程,并非一朝彻底取代人工。总体而言,公司本身相对低调务实,但二级市场围绕其主题的炒作意味需投资者警惕,避免盲目追高。

Symbotic的使命是以机器人和AI重塑供应链。从社会需求看,这符合电商时代对更快速、更廉价物流的追求。长远看,若Symbotic的技术在全球仓库广泛部署,消费者将享受更及时的商品配送,中小企业也能借助高效供应链降低库存成本,实现“货通天下”。劳动者方面,重复繁重的仓库分拣工作将主要由机器人承担,人力可以转向设备维护、监督等技术岗位,这在一定程度上提升了工人技能水平和安全性。当然,这需要配套的培训和转岗支持,以免低技能劳动力失业。Symbotic的系统还提高了仓储空间利用率,可在不新增建筑的情况下容纳更多货物,契合可持续发展的诉求。整体而言,Symbotic通过技术让供应链更敏捷、高效,为消费者和企业创造价值,满足了人类追求便利和经济利益的双重需求。若成功推广,其对全球贸易和零售模式的改变将是深远的——商品流通将更顺畅,物流成本下降有望普惠全社会。这种潜力正是Symbotic获得高估值和各界关注的根本原因。

行业概况:太空被视为人类下一个重要疆域,商业航天近年蓬勃发展。摩根士丹利等机构预计**“太空经济”将在2040年增长至万亿美元量级。关键趋势包括卫星发射成本大幅降低、小型卫星星座遍地开花、政府与商业项目并举推进深空探索等。卫星数据、航天服务对气候、通信和安全有巨大价值。然而行业也面临技术高门槛和高风险特性。本主题涵盖卫星数据公司Spire Global、火箭发射公司Rocket Lab,以及航空航天国防巨头雷神技术**(RTX),代表了新兴航天与传统防务航天的结合。

Spire是一家提供卫星数据和分析的公司,业务涵盖气象数据、船舶和飞机跟踪等。2023年公司收入1.057亿美元,同比增长32%,连续第十个季度创收新高。毛利率稳步提升,运营亏损有所收窄:全年GAAP营业亏损为4460万美元,较上年改善35%。第四季度公司实现了2.1百万美元的正调整后EBITDA,并在经营活动现金流上转正。净亏损方面,2023年全年净亏损约7780万美元,亏损额同比缩小。截至2023年底,Spire拥有现金及短期投资约4.56亿美元,可支持未来研发和运营。整体看,Spire正朝着盈亏平衡方向发展,营收增长稳健且接近现金流转正,财务风险有所降低。

商业航天中,小卫星星座和数据即服务是大趋势。Spire专注的电离层气象数据(利用GPS射频折射测天气)和全球船/机定位,在气候变化、物流安全领域需求上涨。各国政府机构(如美国NOAA、欧洲EUMETSAT)正采购商业卫星数据,用于改进气象预报和科研。这显示商业卫星数据逐渐获得权威认可。行业整体来看,卫星发射成本因SpaceX等降低,许可频繁,小卫星数量激增。预计未来十年数万颗小卫星将发射,为地球提供无缝数据覆盖。Spire作为“太空数据的提供商”顺势而为,拓展服务范围,如推出高分辨率区域天气预报产品。同时,太空领域也出现兼并整合和细分市场竞争(如Planet Labs在光学成像,GHGSat在温室气体监测等)。Spire的优势在于多传感器数据融合和“数据平台”定位,可跟随行业趋势拓展新的数据服务领域。但太空产业的政策支持和融资环境变化(如政府合同、卫星频谱分配等)也会显著影响公司前景。

Spire的核心创新在于其**“卫星即服务”平台和多功能纳卫星星座。公司已部署超100颗纳卫星于低轨,搭载AIS(船舶自动识别)、ADS-B(飞机信号)接收器和GPS掩星仪等载荷,实现一次发射多任务。一大突破是利用GNSS射电掩星技术(RO)获取全球气象数据**,这种无源遥感可全天候提供大气温湿廓线。过去这类数据仅政府卫星提供,Spire将其商业化,2023年赢得美国NOAA 940万美元合同采购RO数据。在技术上,Spire还开发了灵活的多用户卫星任务平台:客户可以将自定义载荷托管在Spire卫星上,由Spire负责发射和运营。这一模式降低了进入太空门槛,被称为“太空基础设施共享”。此外,Spire在云端提供API接口,客户无需自行处理卫星通信,即可直接获取分析后的数据。这些创新让Spire在卫星数据赛道上建立了壁垒:既有独特数据源(RO气象),又有敏捷的平台能力和下游分析优势,形成数据生态系统。

Spire目前市值较低(2025年初约1.5亿美元),对应市销率约1.5倍左右,显著低于多数SaaS和数据服务公司。其估值受到此前SPAC上市后股价下跌影响。市场对其盈利能力持观望态度,因公司仍在亏损且增速中等。但从另一面看,Spire的营收增长>30%、毛利率逐步提高、离盈利不远,若能实现自由现金流转正,当前估值偏低。有可比的Planet Labs市销率约2-3倍,黑卫星等传统遥感则更高。因此Spire在行业中估值相对保守。这既有投资者对小市值航天企业风险偏好的降低,也可能低估了其潜在高黏性订阅收入(2023年末年经常性收入约近1亿美元)。若Spire后续证明盈利模式成立、合同续约率高(目前NRR达150%),估值有修复空间。当然反之,若市场竞争导致增速放缓、融资困难,则估值进一步走低可能。总的来说,以当前业务态势,Spire估值偏低但合理,一方面反映风险,另一方面也给予后续表现巨大的弹性空间。

第一,资金与持续经营风险:航天产业资本密集,Spire近年来通过SPAC募资才有足够现金运营。尽管近期现金流转好,但公司尚未盈利,如宏观环境恶化、融资渠道收紧,可能面临现金消耗殆尽的风险。

第二,市场竞争与差异化:Planet、ICEYE等提供地球遥感影像的数据公司众多,客户预算有限。Spire的差异在海事和气象数据,但这些细分也有政府机构或新创竞逐,公司需保持数据独有性和质量优势。

第三,技术风险:卫星在轨运行存在失败可能,新技术如更高性能的对地观测卫星出现,可能削弱Spire的数据价值。第四,客户依赖政府合同:目前Spire获得多笔政府订单(NOAA、欧洲气象局等),若预算调整或政策变化,合同续签具有不确定性。最后,外部环境风险:太空监管趋严(频谱、轨道碎片)、地缘政治(卫星频率争夺)都可能影响业务。总的来说,Spire作为小型航天企业,抗风险能力有限,这些因素需密切监控。

航天板块在2020-21年经历过一轮SPAC热潮,Spire也在此期间上市。初期市场对“新太空经济”非常兴奋,但随之不少公司业绩不达预期、股价下滑。Spire的故事(将卫星数据商业化)本身具有吸引力,但相较一些过度夸大的同行(如宣称建太空酒店等),Spire算比较务实。然而仍需注意的是,航天领域投资者预期常常超前于现实。例如,有观点把Spire类比为“太空中的彭博数据”,一旦过度渲染,易给公司背负不切实际的增长要求。此前Spire也遭遇过市场热情与业绩落差的情况:2022年公司收入虽增长,但未达某些激进预测,使股价承压。因此,需要理性看待Spire的发展节奏,不应被“太空”光环蒙蔽。公司管理层在沟通中强调影响全人类的使命(气候、安全),这固然激励人心,但投资判断仍应基于扎实的财务和技术进展。

Spire的业务紧扣全球安全与可持续发展需求,长期潜力巨大。通过卫星网络,Spire可实时监测地球各个角落的气象变化,提升天气预报准确度,有助于减灾防灾和应对气候变化。另外,Spire提供的船舶、飞机跟踪服务提高了交通透明度,有助于打击非法捕捞、走私等,提高全球供应链和运输安全。这些都直接服务于人类福祉和地球治理。在社会利益层面,开放的卫星数据平台让更多组织(包括发展中国家的机构、小型初创)也能利用太空数据解决本地问题,实现科技普惠。而Spire自身作为商业模式探索者,若成功证明卫星数据服务的可行性,将推动太空商业化,吸引更多资本和人才进入航天领域。可以说,Spire等公司的出现标志着太空不再只是大国游戏,而成为服务全人类的基础设施之一。从改变世界的程度看,Spire所促进的**“空间信息化”**进程,将使我们对地球的认知和管理跃上新台阶——更精准地预测天气、更有效地保护环境、更安全地进行全球贸易运输。尽管这一潜力需要时间兑现,但其积极意义深远。

Rocket Lab是一家提供小型运载火箭发射和航天器平台的公司。2023年公司营收约2.45亿美元,同比增长16%。其中发射服务和航天器系统双轮驱动收入。然而公司尚未盈利,2023年净亏损达到1.826亿美元,较2022年的1.359亿美元有所扩大。亏损加剧主要因研发投入增加(公司正在开发中型火箭Neutron)以及一次性费用。尽管如此,Rocket Lab毛利水平在改善,2024年营收预期显著提升(据报道2024年收入增至4.36亿美元,增幅78%)。公司现金储备充裕,通过股权融资获得资金支撑扩张。财务整体反映出Rocket Lab仍处投入期,以抢占市场份额为主,短期盈利非主要目标。

商业航天发射市场正从寡头垄断走向多元竞争。SpaceX重新定义了火箭回收和低成本发射,但也为后来者打开市场。小型卫星发射需求旺盛,各国公司竞相推出小型火箭。Rocket Lab是率先成功的民营小火箭公司之一(Electron火箭),占据国际小卫星发射的重要份额。未来趋势包括:发射频率提高——大量小卫星星座(如亚马逊的Kuiper计划)将需要频繁发射;火箭部分可重复使用——SpaceX已证明回收价值,Rocket Lab亦尝试用直升机空中回收火箭助推器;向更大运力发展——小火箭市场有限,不少公司如Rocket Lab正开发中型火箭Neutron以竞争更广市场。与此同时,业界面临产能过剩和价格战风险,部分竞争者如Astra、Virgin Orbit已遇挫退出。Rocket Lab凭借可靠的发射履历(30次Electron发射)和拓展卫星制造服务,站稳脚跟。预计未来几年,中小型发射市场将两极分化:极低成本、快速响应的小火箭与高频可回收的大火箭并存。Rocket Lab若成功发射Neutron,有望在后者领域对标SpaceX的二级市场,行业地位进一步提升。

Rocket Lab的核心产品是Electron火箭,这是全球首款全面实现碳复合材质+电动泵发动机的小型轨道火箭。该火箭创新使用电池驱动泵压推进剂的Rutherford发动机,结构简单且3D打印制造,降低了成本和周期。Electron高度约18米,采用两级设计,太阳同步轨道运力约300公斤,在小火箭中发射成功率名列前茅。公司还在尝试火箭回收:Electron的第一级配备降落伞,Rocket Lab多次用直升机尝试在空中钩住回收,目前改为从海上捞取软着陆的箭体。虽然回收技术仍在完善,但展现了创新精神。另一重要创新是Rocket Lab的Photon航天器平台,可搭载在Electron上用作卫星公交车,客户无需自行研制卫星平台即可发射任务。Photon已用于月球任务(NASA月光立方任务)等,证明小公司也能执行深空探测。未来Rocket Lab的Neutron火箭将更具突破性:计划采用全新设计,可回收一级并直接运载乘员,瞄准近地轨道8吨级运力。这将是小公司向中型运载的飞跃,若成功将标志重大技术创新。总的来说,Rocket Lab在小火箭、电动泵发动机、3D打印、航天器平台等多方面走在前沿,堪称“航天领域的创新工厂”。

Rocket Lab市值目前约在20-25亿美元区间(2025年初),对应2023年PS比率约10倍,考虑其高增长预期尚属合理。相比SpaceX等未上市巨头,Rocket Lab估值显得温和;而与已上市的同行如Virgin Galactic(主要载人航天旅游,收入微薄)相比,Rocket Lab收入更实在但市值相近,表明市场给予Rocket Lab一定认可。估值合理性取决于两方面:发射业务盈利前景和新项目成功概率。如仅看现有Electron发射业务,市场规模有限,利润率受限,估值显得不低;但投资者显然押注其Neutron火箭和卫星部门未来的巨大价值。如果Neutron在2024-25年试飞成功并拿下大型订单(比如部分星座发射合约),则公司收入和地位都会质变,当前估值可能偏低。如果反之,Neutron研制拖延或失败,则估值显著偏高。因此Rocket Lab目前估值带有期权属性:基于现状不算便宜,但考虑成功机率后,估值在风险调整后可接受。投资者需持续评估其项目里程碑进展,以判断估值是否变得更合理。

首先,发射失败风险:航天发射行业高风险,即便经验丰富公司也会遭遇事故。Rocket Lab在2020-2021年发生过几次发射失败,幸而迅速纠正但对财务和声誉都有影响。每一次失败都会导致客户信心和订单损失,需要警惕。其次,市场竞争与价格压力:SpaceX以共享搭载等方式压低小卫星发射价格,Electron相对性价比劣势可能显现。此外,新进入者(如中国商业火箭)崛起也可能瓜分市场。第三,大型项目研发风险:Neutron火箭的开发对Rocket Lab来说投入巨大,如果技术难题或资金不足导致延期,将拖累整体业务。研发超支也可能需要进一步融资,稀释股东权益。第四,财务持续亏损:公司尚未盈利且亏损扩大,如市场环境变化导致融资困难,现金流可能出现问题。第五,政府监管和地缘风险:火箭技术受出口管制,新西兰和美国的监管政策变化会影响公司运作;同时发射基地地缘位置、天气等因素也可能干扰发射节奏。总之,Rocket Lab面临航天企业典型高风险高回报特征,需要稳健运营和技术攻坚来渡过成长期难关。

是否存在误导性宣传、炒作风险

Section titled “是否存在误导性宣传、炒作风险”

Rocket Lab相对保持工程师文化,CEO彼得·贝克风格务实,没有过度炒作太空梦。但在资本市场,作为“SpaceX平替”概念的一环,初上市时也吸引了不少投机。公司曾放出愿景如“在金星着陆”等远期探索计划,引发媒体兴趣。虽然这些探索任务(如金星小探测器)具有科学意义,但商业回报不明,投资者需辨别其中噱头与实际业务的区别。此外,一些公众认知易将Rocket Lab类比SpaceX,希望其复制马斯克式奇迹,可能产生不切实际的短期期待。实际上Rocket Lab体量和资源远不及SpaceX,聚焦点也不同。如果市场对其估计过高,稍有业绩不达就会失望抛售。好在近一年公司股价已回落理性区间,泡沫不算明显。目前更多炒作集中于Neutron的前景上,公司在宣传Neutron时称其将“彻底改变行业格局”,需注意研判其技术可行性和市场契合度,避免过度乐观。

Rocket Lab在更广义上推动了太空的平民化。其低成本火箭降低进入太空的门槛,让小国、大学、创业公司都能发射卫星,实现过去只有大国航天才能做到的事。这有助于释放全球创新活力,例如气候监测、物联网通信等领域会有更多主体参与竞争。Rocket Lab若成功打造可靠的中型可回收火箭Neutron,将进一步打破SpaceX的垄断,为市场提供多样化选择,确保太空交通的竞争和可持续。从人类利益看,一个更繁荣的商业航天生态意味着更密集的地球观测、更广泛的通信覆盖,以及未来深空探索商业参与度提升——比如Rocket Lab已参与月球和行星任务,证明私营公司也能为人类探索宇宙做贡献。社会需求层面,发射能力的扩散满足了各国对主权数据和空间经济的渴望,也满足了科学界对频繁太空试验的需求。长远来看,如果太空基础设施(通信网络、导航、材料试验等)更完善,将反哺地球经济,促进全球发展。Rocket Lab作为这一进程的重要推动者之一,其长期影响体现在让太空真正服务大众——从农民用卫星查天气,到学生能搭载小实验上太空。这种世界改变不是瞬间的,但正逐步发生。Rocket Lab的故事体现了太空不再遥不可及,而正在成为每个人生活的一部分。

雷神技术公司(RTX,原联合技术与雷神公司合并而成)是全球顶级的航空航天和国防企业。2023年公司实现营收689亿美元,同比增长约2.8%。增速较低因商用航空业务恢复和国防订单增长相互抵消。净利润方面,2023年GAAP净利为32亿美元,同比下滑39%。净利大幅下降主要受普惠齿轮涡扇发动机故障准备金和一次性费用影响——普惠是RTX旗下子公司,其产研涡扇发动机在2023年曝出涡轮盘涂层问题导致需召回检修大量服役发动机,对利润造成冲击。若看调整后净利,2023年约18亿美元,仅小幅下降6%。RTX财务整体稳健,经营现金流强劲并持续回馈股东(派息和回购)。截至2024年初,公司年度营收已恢复至807亿美元规模,净利开始回升。总的来说,RTX基本面体现传统军工巨头特点——收入庞大稳定但增长慢、利润率中等(净利率4-5%)、受项目和一次性事项影响显著。

雷神技术横跨防务和商业航天两大领域。在防务方面,地缘局势紧张(欧洲冲突、亚太博弈)驱动各国增加国防开支,美国、欧盟等均加大导弹防御和太空安全投资。RTX旗下雷神防务是美国导弹和雷达系统主力供应商,将受益于这波周期性增长。在太空方面,国防和商业界均重视天基能力:RTX的子公司雷神情报与空间负责卫星传感器、空间通信等业务,可满足美国军方构建天基预警和通信星座的需求。此外,RTX的科林斯宇航和普惠发动机为NASA及商用航天项目提供技术支持,例如科林斯承接NASA新一代宇航服开发,普惠提供火箭上面级发动机技术等。这意味着RTX不仅参与传统卫星/导弹,也涉及新兴商业航天配套。未来趋势包括**“太空军备竞赛”升温,各国投入反卫星、防天系统;以及军民融合**——商业卫星用于军用、军工企业为商业航天服务。RTX作为军工巨头,将顺应趋势拓展太空安全市场。同时在民用航空航天领域,商用航空复苏(飞机订单增长)也利好其航空发动机和航电业务。总体而言,RTX行业前景稳中有升,防务增长驱动强于商业航天市场,但后者也提供长远机会。

作为百年军工航天企业,RTX拥有广泛的创新产品组合。在太空领域:雷神研发的先进红外传感器用于导弹预警卫星,可以24小时监视全球弹道导弹发射;科林斯宇航的新型航天服为Artemis登月任务设计,采用改进材料和仪表界面,让宇航员活动更灵活舒适。此外,雷神的通信卫星有效载荷、地面控制系统也具有领先技术。在火箭推进方面,普惠参与开发NASA太空发射系统(SLS)的上面级发动机,并提供国际空间站所需部件等。在国防航天交叉的技术上,RTX积极布局低轨星座防御,如为美国“跟踪层”导弹预警星座提供传感器。公司还与DARPA合作高超音速武器防御项目,涉及太空传感网和拦截器。一项值得提的是,雷神近期正探索卫星服务技术,计划研制可延寿在轨卫星的机器人。总之,RTX的创新强调系统集成——将传感、通信、打击、航天器平台融合以构筑全域作战能力。这种跨域创新能力是其核心竞争力。此外,在商业技术上,RTX致力于更环保高效的航空发动机(如普惠齿轮传动涡扇大幅降低油耗),间接也支持航天运输可持续。

RTX当前估值相对低廉,2024年预期P/E约在20倍以内,市盈率远低于大盘高科技公司。这部分由于军工股传统上估值偏低(稳定但增长慢),加上2023年发动机问题导致盈利下滑拖累股价。RTX的市销率约1倍出头,与同行洛马、波音等接近,未体现特别溢价。考虑到其2024年营收有望升至800多亿美元、净利恢复增长(调整后净利增长18%),当前估值偏保守。尤其是防务订单增长可带来利润率改善,若剔除一次性因素,RTX内在盈利能力更强。相比纯商业航天或新兴太空公司,RTX估值显著偏低,但也反映出市场对其作为传统军工的认知。鉴于其稳健现金流和股东回报(约2.7%股息率),目前估值算合理甚至偏低。需要注意的一点是,RTX承担大型项目风险较大,一旦出现新的项目损失,盈利预测会受冲击。因此估值也包含了风险折价。但总体而言,以其行业地位和分部价值(普惠、雷神导弹、防空等),RTX的估值对于长线投资具吸引力,合理反映了适度增长预期且安全边际较高。

技术与质量风险是首当其冲的,RTX在2023年曝出的普惠发动机材料缺陷就是典型案例,导致发动机需提前入厂检修,客户航司停飞损失,给公司带来巨额赔偿和修复成本。这类风险在高科技制造中难以杜绝,但对公司声誉和财务影响大。政策和合同风险方面,作为军工五巨头之一,RTX业务受政府预算左右:若未来美国国防预算放缓或国际局势缓和,订单可能减少。另外公司合并后债务负担不小,需要政府持续支持。竞争风险:在防务市场,洛马、波音等强敌环伺,争夺有限合同;商业航空航天上,SpaceX等新贵在瓜分传统业务(例如SpaceX直接承揽国防发射),RTX需要合作或自身创新来应对。监管和政治风险:军工企业常面临严监管及政治审查,一旦曝出违规可能被罚款或限制出口。另外国际市场开拓可能受地缘政治掣肘(如某些国家排斥美国装备)。供应链和宏观风险:RTX业务链长,供应商的零部件延迟或质量问题会影响交付。此外,通胀、汇率等宏观因素也影响成本和利润率。总之,RTX凭借规模和分散业务降低了一些风险,但单点失败和外部环境变化仍可能显著影响业绩,需要审慎管理。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

RTX作为老牌军工,市场对其预期相对稳健,炒作成分不多。公司宣传一般围绕技术实力和爱国形象,较少渲染不切实际的愿景。例如在太空领域,RTX强调自身参与国家安全太空计划的重要性,并未夸大商业航天机会。军工板块投资者也偏理性价值导向,很少出现像初创航天公司的题材炒作。不过需要注意近年ESG和AR主题投资,有时把RTX等传统军工纳入“太空板块”概念进行包装,可能导致一般投资者误解其主要驱动力还是军品而非新兴太空经济。因此宣传上最可能的偏差是将RTX在航天的有限业务放大。而实际上,RTX的大头仍是防空导弹、战机系统等传统业务。因此对投资者而言,应避免因为看好太空产业就草率把RTX当纯太空概念股。总体来说,RTX基本面稳重,其股价波动更多跟随业绩和防务形势,炒作风险较低。

作为军工航天巨头,RTX对世界的长期影响主要体现在维护安全与技术进步两方面。从安全角度,RTX提供的导弹防御系统、预警卫星等是国际安全架构关键组成,帮助威慑冲突、保护和平。其生产的“爱国者”导弹、防空雷达在多个地区保护着数亿平民免受空袭威胁。这种对人类安全的贡献不容忽视。在技术进步方面,RTX长期投入尖端科技研发,军用技术常“溢出”到民用,如航空发动机燃油效率提升、航电系统可靠性提高,都提高了民航的安全和环保性能。RTX参与的太空项目(如NASA登月、深空探测)推进了人类对宇宙的探索,满足了人类与生俱来的求知欲和拓展疆域的梦想。例如科林斯制造的宇航服将陪伴人类重返月球,普惠的推进技术未来或支撑火星任务。这些都在改变人类与太空的关系。从社会需求看,和平稳定和科技进步是最基本的全球需求,RTX的业务正服务于此。当然,我们也应看到军工技术进步的另一面——武器扩散可能引发军备竞赛,需要全球合作管控。但在负责任的运用下,RTX及类似企业提供的先进防御和航天能力,提升了整个人类社会应对挑战的底气和实力。综合而言,RTX通过保障安全和拓展太空边疆,间接而深远地改变着世界运行的基础。

量子计算被誉为下一代计算革命,有望在药物设计、金融模拟、密码攻防等领域带来突破。近年来各国和科技巨头争相投入量子研究,产业步入早期商业化探索期。当前量子计算机仍受限于易错性和规模小,但实验系统的算力正逐年提升(如超导比特、离子阱比特数量屡创新高)。行业趋势包括:不断刷新“量子优越性”里程碑(特定任务超越经典计算机)、开发纠错技术提升计算实用性,以及建设基于云的量子服务平台。主题投资涉及纯量子公司IonQ,以及在量子领域深耕的科技巨头谷歌(Alphabet)和IBM,代表初创和巨头两种力量。

IonQ是全球首家上市的纯量子计算公司(通过SPAC于2021年上市)。公司目前仍处于研发投入期,但收入增长迅猛。2023年IonQ实现营收2200万美元,同比增长98%。虽营收基数小,但表明量子服务开始获得商业订单。全年新预订合同金额6510万美元,也翻倍增长,显示潜在需求旺盛。2023年净亏损为1.578亿美元,较上年扩大(因扩张团队和研发支出)。然而IonQ拥有丰富现金储备:截至2023年底现金及等价物约4.559亿美元。这笔资金足够支持其未来数年持续研发,无需短期融资压力。IonQ无债务,资产负债表健康。总的来看,公司财务反映出“高投入、高成长、未盈利”的典型硬科技初创特点。投资者关注焦点在于营收增长和技术里程碑达成,而非短期盈利。

量子计算产业尚处早期,但发展加速。各国政府2020年代纷纷推出量子战略(美国、欧洲、中国等均投资数十亿美元)。商业方面,量子云服务兴起,IBM、亚马逊、微软等提供量子硬件或模拟接入。IonQ所在的离子阱量子计算被认为具备较长相干时间和高保真度优势,有望与超导并行发展。未来5-10年关键趋势:量子比特数目指数级提升(IBM已发布433比特处理器,并计划1000+比特芯片),IonQ等亦致力扩大量子比特。量子纠错会成为焦点,若能实现容错量子比特,真正实用化才可期。算法和应用探索也在加快,不同行业开始试验量子算法(如金融优化、化学分子模拟)。行业前景乐观但时间表不确定——可能尚需5-10年才能解决纠错挑战,达到“量子实用性”。在此过渡期,拥有实物硬件并不断升级的公司将占据有利位置,IonQ作为纯量子企业,前景取决于其技术路线(离子阱)能否胜出或互补。值得注意的是,还有光量子、超导量子、量子模拟等多路线竞争,行业格局未定。总的来说,量子计算长远潜力巨大,短期仍以科研+早期商业Proof-of-Concept为主旋律。

IonQ的核心技术基于钙离子阱量子位。其创新点包括:1)采用离子阱形成稳定量子比特,利用激光操作量子态,实现全连接门控,即任意两个量子比特可直接纠缠,简化算法实现。2)IonQ提出了#AQ(算法量子比特)指标来衡量实用性能,2023年底其系统达到#AQ 35,2024年初提升到#AQ 36,比原计划提前一年实现。#AQ 35/36表示IonQ机器已在特定算法下具备相当于35/36理想量子比特的算力,大幅领先2022年的#AQ 25。3)IonQ在量子网络互联上取得进展:成功实现了光子与离子纠缠,可作为不同量子处理单元联网的基础。这意味着未来可通过光连接扩展系统规模。4)IonQ正开发**集成光子芯片(PIC)**技术,把控制离子的激光光路集成到芯片上。这将缩小系统尺寸、提高稳定性,利于扩展比特数。IonQ还在商业上创新,如建成西雅图工厂开始量产新一代系统,并成功销售4套量子计算机给企业/研究机构。总体而言,IonQ在离子阱架构多个关键节点上实现突破,使其量子计算能力快速提升,在量子体积、纠错预研等方面走在行业前列。

IonQ自上市以来股价波动剧烈,2023年受AI板块带动一度飙升。当前公司市值约20-30亿美元区间,对应远期市销率超过50倍,因其收入基数很小。这一估值主要基于长期前景押注。从传统角度看,IonQ尚未有可观营收,烧钱研发,估值显得偏高;但作为稀缺的纯量子标的,市场愿意给予科技溢价。IonQ拥有4.5亿现金,可支撑多年研发,这对维持高估值是支撑。比对同行,未上市的量子初创融资估值亦动辄数十亿美元,比如PsiQuantum、D-Wave等。相较之下IonQ作为上市公司估值透明,在二级市场获得了流动性溢价。合理与否取决于对量子计算商用化时间表的判断:若IonQ能在5年内实现有纠错的百比特量级计算并产生可观收入,则当前估值还有提升空间;若技术瓶颈久拖不破或竞争者后来居上,则估值可能大幅回调。总的来说,IonQ估值反映了对其技术路线和先发优势的认可,也隐含了相当不确定性风险,是高风险高潜力的典型案例。

技术风险是首要的。量子计算距离实用尚有重大挑战,IonQ需要不断提高比特数和保真度,但物理上遇到极限的可能性始终存在。如果离子阱路线在纠错扩展上遇阻(例如光子联网没能可靠扩容),公司核心价值会受影响。竞争风险:科技巨头谷歌、IBM在超导量子计算上投入巨资,另有PsiQuantum走光量子路线、微软研究拓扑量子比特等。IonQ面对资金和人才更雄厚的对手,必须在细分市场抢先突破。商业可持续性:当前客户多为科研性质合同(政府项目、合作研究等),真正付费商业用户还很少。如果量子实用性迟迟未临,潜在客户可能失去耐心而缩减投入。IonQ营收增长或难持续翻倍。资本市场风险:IonQ高估值建立在市场信心上,一旦宏观环境恶化或投资风口转移(如AI热潮退却),公司股价和融资能力会受冲击。短袭击与质疑:2022年曾有做空机构质疑IonQ夸大技术和订单,引发股价震荡。虽然IonQ否认并继续推进业务,但类似争议可能再现。总的来说,IonQ所处行业本就高风险,其未来充满未知,需要攻克科学难题和应对外部竞争双重考验。

是否存在误导性宣传、炒作风险

Section titled “是否存在误导性宣传、炒作风险”

对于一家前沿科技公司,IonQ整体保持相对谨慎务实的姿态,但不可避免地会渲染自身亮点。例如IonQ推出#AQ指标,被认为是强调其实用性能的一种市场推广手段。公司在新闻稿中高调宣布**“提前一年完成2024技术里程碑”,容易给人感觉进展神速。然而#AQ是IonQ自定义指标,外界或难以验证其实际效果,存在一定宣传成分。此外,IonQ管理层曾在2023年结合生成式AI的热潮,声称量子计算可以解决训练大型语言模型的成本和速度问题,引发关注。这被部分人质疑为蹭热点,因为量子计算离真正处理AI任务还有距离。再者,IonQ上市时通过SPAC,市场一度给予其超过40亿美元**的高估值,隐含大量炒作资金。做空机构Scorpion Capital曾发布47页报告质疑IonQ数据夸大、只有几台简陋设备等,虽然IonQ反驳了报告,但这事件反映市场对其宣传和实际的不安。投资者应当对IonQ的技术公告既保持期待也保持审慎,深入理解量子计算现实进展,避免被行业过热情绪左右判断。

真正成熟的量子计算将是计算机史上划时代的突破,对人类社会影响深远。IonQ若能引领这一变革,其潜力无可限量。在医药领域,量子计算可精确模拟分子和化学反应,帮助设计新药和材料,攻克癌症、超级材料等难题;在金融,量子算法能高速优化投资组合、风险分析,提高经济效率;在人工智能,量子计算或可加速机器学习,处理经典计算难以应对的组合爆炸问题。从人性需求看,人类追求更强计算能力以解决目前无法解决的问题,量子计算正是为了满足这种求知与实用的双重需求而生。如果IonQ的离子阱技术路线最终胜出,它将成为提供这种革命性算力的基础设施企业,相当于“量子时代的英特尔/微软”。社会利益层面,量子计算也带来挑战,如传统加密体系被破解,但这将推动更安全的新加密技术出现,整体上科技水平跃迁会促进生产力和安全性同步提升。可以说,量子计算的出现将改变游戏规则,让整个人类有能力应对此前束手无策的复杂问题。IonQ作为该领域先锋之一,有机会直接参与塑造这一未来格局。尽管这一潜力实现尚需时日,但一旦兑现,其改变世界的幅度将可媲美甚至超越蒸汽机、电力和互联网带来的工业革命和信息革命。

谷歌(Alphabet)是市值逾万亿美元的科技巨头,主营搜索广告和云计算业务。2023年谷歌实现营收约3074亿美元,同比增长7.5%(在数字广告回暖及云服务增长带动下)。净利润达到737.95亿美元,较2022年增长约23%。净利率约24%,在大型科技公司中保持高位。谷歌财务实力雄厚,手握海量现金(2023年约1180亿美元现金及等价物),几乎无负债。这些雄厚基本面为其在量子计算等前沿领域投入提供了强有力支撑。值得注意的是,谷歌的量子研究归属于“Other Bets”或Google Quantum AI部门,对财务贡献目前可以忽略不计,不影响整体盈利。谷歌仍主要依靠广告和云盈利,量子属于长期战略投入领域。

谷歌在量子计算领域是先行者之一。2019年谷歌科学家宣布实现**“量子优越性”(使用53比特超导量子处理器耗时200秒完成一特定任务,宣称超越当时最强超算一万年计算量)。虽然这一里程碑有争议,但无疑谷歌量子技术居于领先。谷歌采用超导量子比特路线,致力于提升比特数量和降低误差率。2022年谷歌发布72比特“Bristlecone”处理器,2023年前后正推进上千比特的“穹鸟(Condor)”芯片研制。行业趋势方面,科技巨头都将量子视为下个计算浪潮,IBM、Intel等各显神通,谷歌必须保持科研投入避免掉队。同时谷歌将量子计算与其云业务结合,提供Quantum Computing Service**给开发者试用。这与亚马逊Braket、微软Azure Quantum类似,是产业方向——云端托管量子。未来5-10年,谷歌的角色可能是:1)继续主导量子硬件研发,与学术界协同攻关纠错算法,2)通过Google Cloud将量子资源商业化,为行业培养生态用户。凭借其AI和半导体能力,谷歌有望将量子与经典算力融合(如用量子加速机器学习)。总体看,谷歌量子布局立足长远,其雄厚资源和人才储备使其有实力攻克技术难题,但需要与IBM等竞技并防范初创异军突起。

谷歌的量子创新主要集中在超导量子电路。其研制的Sycamore系列芯片采用铌基超导回路作为量子比特,通过微波控制实现门操作。2019年发表的量子优越性实验使用的是53比特Sycamore处理器,执行随机电路采样任务。此举标志超导量子设备首次超过经典计算在特定问题的能力,尽管应用有限,但证明了可扩展架构的潜力。此后谷歌在纠错方面积极投入,2023年发表论文称在一定规模下观测到量子纠错码的错误率随编码比特数增加而下降,这是迈向容错计算的重要一步。硬件上,谷歌计划推出**“穹鸟”(Condor)芯片,1121个量子比特**,如成功将是首个过千比特处理器。此外谷歌也探索量子模拟、量子机器学习算法,在化学模拟、组合优化等领域发布算法突破。谷歌的量子团队强调“量子信息科学全栈”创新,即不仅硬件,还开发软件栈如开源框架Cirq、量子应用库等,方便程序员编写量子算法。谷歌还提出扩展性架构,比如用多芯片模块实现更多比特连接,以克服单芯片尺寸限制。可以说,谷歌在超导量子技术上持续迭代,从量子芯片设计、纠错算法到开发者工具,均处于行业前沿,为未来实用化打下基础。

谷歌的估值主要由其核心业务决定,对量子计算的前瞻性投入尚未纳入估值模型。目前Alphabet市盈率约25倍,PEG比接近1,属合理偏低水平,表明市场更关心其广告和云增长放缓而非量子等Moonshot项目。所以可以说,谷歌的量子业务是“被低估的期权”。若量子计算取得突破,谷歌有能力将其迅速转化为云服务优势,这将给公司带来额外增长曲线,届时现在的估值将显得很便宜。不过也要看到,巨头开展量子研究虽声势大,但短中期盈利渺茫,一些投资者甚至反对烧钱在无明确回报的项目上。因此谷歌量子业务目前对估值影响中性:成功则锦上添花,不成功对估值也无损。因此认为谷歌整体估值合理,但尚未充分反映量子计算成功的潜在上行。对于想投资量子行业的人而言,谷歌提供的是一种稳健且附带量子选项的选择,其估值主要看传统科技指标,量子则是免费附赠的远期价值。

谷歌在量子计算面临的主要风险包括:技术不确定性——超导量子比特虽然进展快但也有瓶颈,如噪声和扩展性问题,谷歌押注的路线未必一定胜出,万一未来离子阱或光量子路线后来居上,谷歌需调整策略。人才和组织——量子计算需要顶尖物理和工程人才,但这类人才稀缺且分散在学术界和各公司之间,谷歌需要持续吸引和留住人才,防止人才流向竞争对手或初创公司。投资耐心——谷歌母公司近年来在精简成本,对Other Bets有所收缩,如果量子短期无显著进展,高层可能降低投入优先级,影响项目推进。竞合关系——谷歌同时是量子硬件开发者又通过云平台提供其他公司硬件服务(如最近Google Cloud引入量子初创公司的机型),如何平衡竞合是一大挑战。公关及伦理——当年谷歌宣布量子优越性就引来IBM等质疑,称其实验意义有限。未来围绕量子进展的宣传若处理不慎,可能引发公众和行业反弹,甚至影响股价。因此谷歌需要谨慎管理市场预期。总体来说,这些风险更多是战略和管理层面,凭谷歌体量并不会危及公司根本,但可能决定其能否在量子竞赛中保持领先。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

2019年谷歌在《Nature》杂志上发布量子优越性成果,引发媒体轰动,但也被指有炒作之嫌——因其实验任务对现实无用,且很快被中国科研团队用超级计算机模拟缩短到几天完成,部分抵消了谷歌的“万年对200秒”说法。谷歌对这一里程碑的宣传,有加剧量子炒作的效应。一时间资本市场和公众对量子计算关注激增,相关初创估值上涨。然而这种超前宣传也可能让公众误以为量子计算已近实用,从而高估商业进展速度。事实上谷歌自己也承认实现实用化还需**“10年左右”**努力。除了优越性事件,谷歌在量子领域相对低调,与IBM喜欢定期公布硬件进展形成对比。谷歌目前并未将量子列为对外讲故事的业绩增长点,说明内部还是清醒的。但不排除未来为了巩固技术领导,会突出宣传某些概念(如谷歌或声称率先实现纠错逻辑比特)。投资者应以平常心对待,不因一两次突破就盲目乐观,也不因一两次挫折就全盘否定。整体看,谷歌量子团队专业务实,炒作风险可控,不过考虑到市场对尖端科技敏感,谷歌有责任避免误导宣传来维持行业健康发展。

谷歌作为全球信息产业的核心玩家,若掌握量子计算,将进一步塑造人类信息社会的未来。设想未来,当谷歌量子计算云向数百万开发者开放,复杂AI模型训练、全球气候模拟、实时语言翻译等场景都可能因此提速几个数量级。这将大幅推动知识创造和科技进步。例如,新药研发周期可能从几年缩短到几个月,金融风险分析可即时完成,人工智能迭代更快甚至催生我们难以预料的新应用。谷歌本身的使命是“整合全球信息”,量子计算可以让其跨越现有计算瓶颈,把更多无结构数据变为可洞察信息——比如更深入地搜索生物基因、材料结构、宇宙数据等。目前谷歌服务几乎覆盖全球网民,未来通过量子技术,它可以解决当前无法解决的问题,从而进一步改善人类生活质量:优化城市交通、改进天气预报、防范流行病传播,等等。批判性地看,也要注意潜在副作用,例如量子计算会破坏传统加密,需要建立新安全体系;谷歌获取更强算力后,更要谨慎使用数据、保护隐私,以免强化对信息的过度掌控。但总体而言,谷歌将量子计算应用于善,能够帮助解决全人类共同挑战,如气候变化、能源优化和医疗突破。这样的潜力无疑是世界级的。作为技术乐观主义者,可以预见,谷歌推动下的量子计算时代,将像互联网和AI一样,成为又一次深刻改变世界的技术浪潮。

IBM是信息科技业百年老牌,近年来聚焦混合云和AI战略,同时大力投入量子计算研发。2023年IBM营收619亿美元,同比增长2.2%,保持小幅上升。净利润达到75.1亿美元,大增约322%

——这一非常规高增长源于2022年基数偏低(当年有剥离Kyndryl相关支出和税务调整)。扣除一次性因素,IBM利润率约12%,盈利能力稳健。IBM财务稳中有进,业务现金流充裕(年经营现金流超90亿美元)。其研发投入每年约60亿美金,支撑诸多前沿项目,其中就包括量子计算。在量子部门开销相对IBM整体营收九牛一毛,可以长期投入。IBM负债水平适中(2023年底总债务约480亿美元,但其中含金融业务债务),资产负债表总体良好。IBM近年来通过调整业务组合(剥离基础IT服务,收购红帽等)改善了增长势头,虽然与硅谷新贵相比仍较慢,但有稳定现金流支持创新。

IBM是量子计算商业化先驱。早在2016年,IBM就开放了全球首个云上量子计算服务IBM Q,让公众可通过云访问其5量子比特设备,开启了量子计算民主化的序幕。此后IBM每年升级硬件,2021年实现127比特的”Eagle”处理器,2022年达到433比特”Osprey”,并计划2023-2025推出1121比特”Condor”。IBM提出明确的量子路线图,目标是2025年实现上千比特并构建模块化量子架构。行业趋势看,IBM和谷歌双雄在超导路线竞争激烈,此外小企业在其他路线追赶。IBM通过IBM Quantum Network联合全球180多家机构(企业、大学、实验室),建立起量子生态,这一开放合作模式或帮助其巩固行业领导地位。随着量子硬件比特数提升,IBM也着重纠错研究和软件开发,推出了Qiskit开源框架等。未来行业若进入实用阶段,IBM有望将量子计算融入其企业客户解决方案,与经典计算融合提供服务。值得关注的是,IBM在2023年宣称量子计算进入**“量子实用性”时代**,即开始解决有意义的问题。虽然全面实用尚远,但IBM积极推动行业从科研迈向商用。作为ICT老将,IBM的角色是既当技术引领者又当生态培育者,为行业制定标准和培养人才,其地位不可替代。

IBM在超导量子硬件、软件、应用各方面均有大量创新成果。硬件上,IBM采用Transmon超导量子比特设计,通过二维平面电路实现比特,可扩展性好。2021年的127比特”Eagle”芯片首破百比特大关。IBM创新之处在于芯片布局设计,使跨比特的干扰和差错降到最低。2022年发布的433比特”Osprey”更进一步验证了可扩展架构。下一步1121比特”Condor”若成功,将是第一个千比特量子处理器。IBM还在开发量子级联互联技术,把多个芯片模块链接,实现更大规模(类似多核CPU思想)。软件方面,IBM推出开源框架Qiskit,方便开发者编写量子程序、模拟结果。IBM还提供量子算力编排服务,让量子与经典计算混合求解问题。应用上,IBM与合作伙伴探索量子在金融、化学、机器学习等的具体用例。例如与德国制药公司试验量子化学模拟药物分子、与日本电力公司研究量子优化电网配置等。IBM每年举办量子峰会宣布最新成果:2022年宣布实现了有效纠错码——利用大量物理比特编码逻辑比特,使逻辑错误率开始随码距增加而下降,表明纠错可行。这是重大创新,预示着容错计算机雏形。在人才培养上,IBM创办量子学术计划,向大学提供免费硬件资源,从教育层面推动创新。可以说,IBM在量子计算全栈创新方面布局深厚,硬件迭代速度快、软件生态完善、应用案例丰富,是目前量子产业创新的中流砥柱。

IBM当前市盈率约16-17倍,低于市场平均。这体现投资者仍将其视作价值型公司,主要衡量其云和软件业务表现。量子计算对其估值贡献可以说几乎为零,因为尚无实质营收且前景长远难测。因此,从量子投资角度看,IBM的量子业务是被市场忽视的隐藏价值。如果量子技术突破,IBM有潜力因先发优势而攫取可观市场份额,那么现在估值将严重低估其未来增长。但也要看到,IBM核心业务增长一般,整体估值提升受限。投资IBM相当于是稳健股息+云转型故事+量子远景选项的组合。目前估值水平对于保守收益预期者合理,对于看中量子潜力者则偏低。不过由于IBM盘子大,量子业务即便成功在总公司营收中占比也需要较长时间才能显著。这意味着短期内量子不会推动估值,但长期是潜在催化剂。综合判断,IBM估值合理甚至略偏低,主要因为市场对其创新增长信心不足。但如果IBM在量子计算商业化上抢得先机,这部分价值将逐步体现出来,当前估值便有较大安全边际和上行潜力。

IBM在量子计算方面的风险包括:技术路线风险——IBM押注超导比特,但这一技术需要在毫开温低温下工作,系统复杂。倘若未来另一路线(如离子阱、光量子)证明更实用,IBM可能错失方向。IBM也在关注其他路线(如参与冷原子项目),但重心仍在超导。商业竞争风险:谷歌、亚马逊、微软等巨头都在推进量子,有的可能整合初创公司技术(如AWS与IonQ合作)。IBM需保持开放合作,防止被行业孤立或落后。投入回报风险:量子计算需要持续高投入,IBM近年来营收增长缓慢,内部会权衡资源分配。如果量子进度不明显,可能遭管理层或股东质疑而削减投入,从而贻误战机。人才与合作:量子领域人才炙手可热,IBM虽底蕴深但也面临人才流失到初创或竞争公司的风险。同时维持其Quantum Network盟友的忠诚度也需谨慎——如果伙伴企业觉得IBM进展不如预期,可能转向别家平台。宏观及政策:政府对量子项目支持和监管会影响行业生态。例如政府可能限制量子技术出口或合作者范围,影响IBM国际合作。总体来说,IBM风险更多在于战略执行和行业博弈层面,一旦在关键节点掉队,可能错失量子时代领导地位。不过凭其实力和先发优势,只要稳扎稳打,这些风险是可以管控的。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

IBM在量子计算领域的信息发布相对稳健,每年定期公布成果和路线图,让业界了解进度。例如其每次宣布新的量子芯片(如127比特Eagle、433比特Osprey)都伴详实技术指标说明。相较谷歌“量子优越性”的轰动,IBM当时泼冷水指出传统计算可优化模拟,那时IBM更显理性。因此IBM自身并未过度炒作,相反常给行业降温。2023年IBM提出“量子实用性”(Quantum Utility)的概念,强调最新进展让量子开始产生实际用处。虽然这略有营销意味,但IBM也举出具体例子支撑。投资者对IBM量子业务也没有出现泡沫现象,因为IBM整体估值平稳,其量子成果反而常被市场忽略。在内部,IBM注重避免过度承诺,例如其纠错研究虽突破但也坦诚仍需更多比特才能真正容错,没有宣称已全面解决错误问题。因此IBM的量子宣传总体可信。不过需要注意行业外一些媒体对IBM进展的解读可能夸大。例如听到“1000比特芯片”公众或以为马上能干大事,但事实上噪声问题仍待解。这种信息不对称可能让不明真相者误解量子计算成熟度,而IBM作为领导者有责任继续科普,防止大众被不实宣传影响。目前看,IBM在业界口碑良好,炒作风险低,反倒是某些初创或投机资本容易借IBM名义炒概念,这需理清。

IBM的公司格言曾是“让世界更美好”(Let’s build a smarter planet)。在量子计算时代,IBM有机会实现这一宏愿。IBM的量子愿景不仅是开发机器,还在构建全球量子计算生态。想象未来十年内,IBM在世界各地部署商用量子中心,各行业专家通过IBM云访问强大的量子算力,与经典计算融合解决难题。例如:化工企业借助IBM量子机设计更高效电池材料,缩短新材料研发周期;物流公司用量子优化全球运输路线,节省燃料减少碳排;医疗研究者模拟蛋白质折叠,攻克疑难疾病新疗法。这些应用都直接造福社会大众。IBM一贯服务企业和政府客户,如果量子计算成熟,其客户群将涵盖国家机构、跨国公司甚至新创团队,对整体经济和科技进步的推动将非常广泛。此外,IBM开放教育资源培养量子人才,让各国学生有机会接触前沿技术,这有助于缩小技术鸿沟。从利益相关者看,IBM量子使客户提升竞争力、使公众享受科技进步红利,也巩固IBM自身在新时代的地位,可谓多赢。如果量子计算成功落地,将成为继大型机、PC、互联网、云计算后的第五次计算范式转变。IBM身处其中,将再次定义基础设施。这对社会意味着计算能力爆炸式提升,人类可更有效地应对气候变化、能源枯竭、重大疾病等全球挑战。因此,IBM量子计算的长期世界改变潜力是巨大的——它延续了IBM百年来通过技术服务人类的传统,在新的计算纪元再造一个更智能、更高效的星球。

行业概况: 金融科技通过技术手段改造传统金融服务,提高效率、降低成本、拓展普惠。近年来,移动支付、数字银行、互联网投资等领域兴起大量创新企业。FinTech满足年轻一代对线上便捷金融的需求,也在新兴市场弥合金融服务缺口。随着监管完善和用户成熟,金融科技公司开始走出“烧钱补贴”阶段,探索可持续盈利模式。本主题选择的SoFi、Robinhood和DLocal分别代表数字银行与综合理财、零佣金证券交易、新兴市场支付三个典型方向。

SoFi是一家美国的互联网金融平台,提供从借贷、储蓄到投资的一站式服务。2023年公司实现营收约21亿美元,同比增速约35%。其中第四季度营收6.15亿美元,同比增长35%。随着业务规模扩大,SoFi的亏损逐步缩窄,并于2023年末首次实现季度GAAP盈利:Q4净利润转正1100万美元,相比2022年同期净亏5.25亿美元有显著改善。全年仍录得净亏损约5.41亿美元,但较上年减少约48.7亿美元。SoFi的调整后EBITDA持续攀升,2023年全年达2.49亿美元,同比增长81%。公司现金流状况良好,四季度经营现金流转正且用户存款增长强劲。总的来说,SoFi正处于从高成长亏损向盈利转型的拐点,营收保持高速增长,亏损大幅收窄,基本面趋势向好。

数字银行和综合理财平台是FinTech的重要赛道。年轻一代用户偏好移动端操作和个性化服务,SoFi等数字金融平台正好满足这一趋势。美国市场看,传统银行的线上化转型较慢,留给SoFi等抢占用户的窗口。特别是SoFi拥有全国银行执照后,可吸收存款和放贷,竞争力提升。行业趋势方面,**“超级应用”**理念在金融领域兴起,即单一平台提供多元金融产品,提升用户黏性。SoFi正朝此方向发展,其用户可以在一个App内完成贷款、股票交易、信用卡管理等。这种模式一旦成熟,平台的LTV(用户终身价值)将大增。宏观上,美国恢复加息周期对FinTech既有利又有弊:利率上升有助于SoFi扩大存贷利差收入,但也增加了借贷违约风险。市场格局方面,大型科技公司(苹果、Google等)也切入金融支付及储蓄领域,FinTech创业公司面临跨界竞争。SoFi的优势在于率先构建起全面持牌的数字银行框架,且以会员制经营增强用户关系。展望未来,随着用户理财意识提高和对传统金融收费不满,FinTech渗透率有望继续提升。但监管趋严也是趋势,要求这些平台符合与银行同等标准,合规成本上升。总体而言,行业前景广阔,强者将脱颖而出成为新金融巨头,SoFi有望在美国市场占据一席。

SoFi的创新主要在商业模式和用户体验上,而非硬核科技。其推出的**“一站式金融超市”是核心创新,把原本分散的贷款、投资、保险、信用卡等服务整合到统一数字界面。SoFi通过统一会员账户体系,让用户一次注册即可享受多种金融产品,减少了传统金融的繁琐流程。另一个创新是社群化理财**:SoFi早期以校友社群贷款起家,强调会员福利和教育(如提供职业辅导、理财课程)。这营造了比传统银行更亲密的客户关系。技术方面,SoFi高度数字化运营,运用大数据风控审批贷款,线上秒批。其投资平台支持零佣金交易和部分股权投资,迎合小额投资者需求,同时推出机器人投顾服务,利用算法自动配置资产。SoFi还是少数开发自有核心银行系统的FinTech之一,收购了Galileo支付处理和Technisys核心银行系统,以掌控底层科技栈,保证产品创新敏捷性和成本优势

此外,SoFi积极开拓Web3领域创新,如提供加密货币交易功能和相关教育。总体来说,SoFi并非依靠颠覆性技术取胜,而是以用户体验和产品整合创新抢占市场,这种以科技为手段、以服务为核心的创新模式帮助其迅速累积超750万会员

SoFi目前市值约70-80亿美元(股价在8-10美元区间),对应2023年营收的PS倍数约3-4倍。考虑其营收增速35%左右,且正接近盈利,估值不算过分昂贵。以传统银行类比,SoFi暂无明确PE可比,但若以未来利润预期(市场预期2024年盈利转正)计算,远期PE可能在50-70倍,市场赋予其成长溢价。与FinTech同行相比,SoFi的PS略高于一些单一业务公司(如LendingClub等),但低于高速增长且盈利的Block(Square)等。这一定程度上反映了SoFi业务模式更复杂、盈利才刚破晓,投资者态度相对谨慎。另一方面,大银行如摩根大通PS不到2倍,但增长几乎停滞。SoFi则有数倍于银行业的增长,PS高出一些可接受。目前估值水平合理地消化了近期盈利改善,也预期了未来几年20-30%增长。如果SoFi能持续超预期增长或大幅提高利润率,现价有上涨空间;反之若出现增速放缓或监管不利,估值可能受压。综合看,SoFi估值属于成长型FinTech的中等水平,不像早期那样泡沫,也未完全成熟,较为符合其基本面状况。

SoFi面临多方面风险。监管风险:作为持牌数字银行,SoFi必须遵循各项银行法规。近年美国监管部门更严格审视FinTech,SoFi的加密货币交易业务就曾被参议院关注其合规性。如果监管环境收紧(例如限制科技公司银行业务),会冲击SoFi模式。信用风险:SoFi的贷款业务(学生贷、个人贷等)在高利率和经济下行时违约率可能上升,产生坏账。特别是2023年美国恢复征收学生贷款后,借款人还款压力上升,需要SoFi谨慎风控。竞争风险:银行巨头正反击,例如摩根大通的Chase等也推出更好的数字App,苹果公司也发行了储蓄账户和Apple Card。这些都会分流SoFi目标客群。盈利模式风险:SoFi很多业务(股票交易、ATM取现等)是免费的,以获取用户规模,将来如何平衡增长和盈利需权衡。如果补贴一旦减少,用户活跃度可能下滑。财务风险:虽然SoFi现金流趋好,但仍承担着较高营销和研发成本,未来某季度若无法控制费用,公司盈利进程可能延后。另外,SoFi有相当的股权激励摊薄,股东需承受稀释风险。声誉风险:FinTech公司容易在社交媒体上被放大褒贬,一次安全事故或服务中断就可能引发信任危机。SoFi需要确保数据安全和服务稳定,以免影响用户信心。总的来说,SoFi作为创新者,在享受成长的同时也暴露于政策、宏观和竞争等多重风险,需要灵活调整策略和严守合规与风控底线。

是否存在误导性宣传、炒作风险

Section titled “是否存在误导性宣传、炒作风险”

FinTech板块在2020-21年经历过一波狂热,SoFi股价也曾被热炒(包括作为网红股被在Reddit论坛讨论)。当时部分宣传渲染SoFi将彻底颠覆传统银行、年轻人都将抛弃银行用SoFi等,这显然过于乐观。实际上传统银行体系根深蒂固,FinTech更可能与之共存融合。SoFi本身市场营销较为高调,如赞助体育场(洛杉矶SoFi体育场)以提升品牌,对年轻人宣传“让理财变轻松有趣”。这些营销无可厚非,但投资者应避免将广告口号当作投资确定性。过去SoFi管理层对增长抱有激进目标,上市以来大致兑现,但过程中也调整策略聚焦盈利,这体现了宣传和现实的磨合。从当前看,SoFi股价已从高点回落70%以上,市场炒作基本消退,多数分析师开始以银行视角看待SoFi。公司对外沟通转向强调财务指标(如会员增长、交叉销售比率、盈利时间表),而非画大饼,这是一种成熟迹象。当然,社交媒体上的“粉丝股东”仍可能对SoFi抱有情感化期望,短期情绪可能引发波动。但整体而言,SoFi现在更多以真实业绩说话,误导性宣传明显减少。值得注意的是,当年某些FinTech公司因夸大数据或隐瞒风险而遭监管(如陆金所、Affirm过度宣传信用),SoFi目前未有严重此类问题。不过随着其加密业务等扩展,仍需透明合规,防范被认为利用热点进行过度包装。

SoFi的使命是**“帮助人人实现财务独立,实现理想”。从人性角度,这契合了年轻一代对掌控自己财务、追求自由生活的向往。长期来看,SoFi和类似FinTech可能真正在几个方面改变金融生态:(1)普惠金融:传统金融体系中,许多人(尤其美国学生、弱势群体)面临高费用和门槛。SoFi通过零佣金、低利率贷款等,让更多人以更低成本获取金融服务,减轻债务负担,比如其学生贷款再融资帮助毕业生节省利息。金融服务的可及性提升,将改善很多普通人的生活品质。(2)金融教育和自主理财:SoFi注重向用户提供教育资源和社群支持,长期或能提高大众理财知识水平,让理财不再神秘。人们更懂财务规划,有助整个社会财富更稳健增长。(3)打破金融垄断:由科技公司带来的竞争压力,促使大银行降低收费、改进服务,这对消费者是利好。我们已经看到不少银行跟进免佣金、提升App体验,这些都源于FinTech创新的倒逼。(4)一体化生活方式平台:如果SoFi成功打造超级App,人们的财务活动将无缝融入数字生活。例如发工资直接到SoFi账户、AI自动帮你分配收入投资、消费时智能贴合预算等。这种便捷在未来也许成为新常态。综合而言,SoFi代表的金融科技有潜力让金融更包容、更高效、更以用户为中心**,这与社会对公平和便利的需求一致。虽然传统金融不会消失,但FinTech引领的变革会推动整个行业进步,进而帮助更多人实现财务自由梦想。从改变世界的广度看,它不像AI那样显眼,但润物细无声地改善着亿万人的财富管理方式,意义深远。

Robinhood是以零佣金股票交易起家的美国知名金融科技公司。2023年公司实现营收约18.7亿美元,同比强劲增长37%,创下上市以来的新高。收入构成中,利息收入增长突出(受益于利率上升),交易相关收入也有所恢复。亏损方面显著收窄:2023年净亏损5.41亿美元,较2022年减少4.87亿美元。特别地,2023年第四季度Robinhood实现了单季GAAP净利润1100万美元,为首次季度盈利。公司通过多轮裁员和费用控制,将运营成本大幅压降,同时用户资产随市场回升而上升,推动财务改善。2024年形势更进一步:全年营收跃升至29.5亿美元,同比增58%,净利润达14.1亿美元,成功扭亏。这得益于高利息收入和加密交易回暖。Robinhood财务已转向健康轨道:活跃用户约保持在1000万以上,资产净流入稳定。整体看,公司经历过2021-22年的低谷后,2023年重拾增长,2024年更扭亏为盈,基本面转强。

Robinhood所处的是互联网证券及投资行业。零佣金交易已成为行业标准,美国主要券商纷纷跟进免佣,这归功于Robinhood的颠覆。未来趋势包括:交易大众化——越来越多年轻人参与股票和加密市场,Robinhood作为入门平台仍有吸引力;产品多元化——仅靠股票交易较单一,公司已拓展加密货币交易、期权交易、IRA退休账户等,未来可能涉足储蓄、贷款,向超级App发展,以提高ARPU;国际扩张——美国市场趋于饱和,Robinhood开始试水海外(如英国)寻找增量用户;监管加强——游戏化交易曾受诟病,监管层要求提高投资者教育和保护,Robinhood需在易用与合规间平衡;市场环境影响——股市繁荣时新用户蜂拥,低迷时交投清淡,这是经纪业务的周期性特点。2020-21年的特殊牛市推高了Robinhood用户活跃度和收入(也引发GameStop事件等争议),未来难再现那样极端场景,但长期看,随着千禧一代财富增加和退休金自主化,个人投资市场仍有增长空间。Robinhood若能稳住核心交易业务并拓展理财生态,将在新的行业生态中占有一席。但它也面临传统券商数字转型(如嘉信理财加强线上服务)和其他FinTech竞争(Cash App等提供股票功能)。行业总体趋势有利于数字券商壮大,但胜出者需要兼顾流量和服务深度。

Robinhood在产品创新上最具标志性的是零佣金+移动优先模式。这一突破打破了美国几十年来股票交易需支付佣金的惯例,将散户交易成本降至几乎为零(通过收取订单流付款PFOF盈利)。Robinhood的App以极简交互著称,借鉴游戏化元素,让年轻人觉得投资“像玩一样”。例如,其界面用火箭、彩带动画庆祝交易,极大降低了股市新手的心理门槛。Robinhood还率先推出支持部分股票交易的功能,用户哪怕只有1美元也能买入特斯拉等高价股的一小部分。这极大拓宽了潜在用户群,因为传统券商通常有交易门槛和账户最低余额限制。另一个创新是即时账户认证与转账:Robinhood允许新开户的用户即刻使用部分资金交易,而不用等待资金完全结算,大幅提升了使用体验。技术上,Robinhood构建了自有高并发交易后端,能应对峰值订单量(尽管2021年GameStop事件中一度宕机,后来持续改进)。随着版图扩张,Robinhood还开发了加密钱包功能,将股票和加密资产整合在一App内,用户可以一站式管理多元资产。Robinhood近期上线的IRA退休账户提供高收益匹配,进一步创新吸引长期投资资金。总体而言,Robinhood的创新更多在商业模式(免费)、用户体验(极简&游戏化)和运营(无门槛碎股、秒级服务)上,技术实现则注重可扩展和安全。

Robinhood经历上市初期狂热估值后显著回落,目前市值约80-100亿美元,对应2024年PE不到8倍(净利14亿)。以PS看约3-4倍(2024年收入29.5亿)。如此看来,Robinhood估值偏低,这与其用户增长放缓、监管阴影和市场对其可持续盈利的疑虑有关。但从最新财报来看,公司已实现全年盈利且利润率不低(2024净利率约47%),若能维持,当前估值无疑低估。市场可能担心这些利润很大部分源自利息环境利好(高利率带来利息收入激增),一旦降息,盈利会回落。因此Robinhood估值隐含对未来利率和交易量下行的预期。例如若美联储开始降息,其年化利息收入可能减少,EPS走低,当前PE就不那么低了。此外,悬而未决的监管风险(可能限制PFOF模式)也压制估值。若排除这些担忧,以公司活跃用户和资产规模对比传统券商,Robinhood的市值仍远低于嘉信理财等,可见市场尚未把它当成熟券商看待。综合评估,Robinhood估值合理性取决于其盈利成色:若2024年利润高峰不可持续,则现在估值合理甚至略高;若公司能拓展新收入抵消利息下降,则目前估值偏低。考虑其品牌影响和年轻用户潜力,中长期存在重估空间。

监管风险始终是Robinhood悬顶之剑。美国SEC多次表示考虑禁止支付订单流(PFOF)制度,而Robinhood相当比例收入来自PFOF 。一旦政策落地,公司需调整商业模式,收入将受影响。2021年GameStop事件后,众议院也调查Robinhood暂停交易行为,批评其风控和与大机构关系。这些监管动作可能导致更严格的资本要求或透明度要求。市场环境风险:Robinhood业绩与市场交投活跃度高度相关。如果股市低迷、加密冬天,用户交易兴趣下降,公司收入会明显缩水。2022年就是例子:当年活跃用户数和交易量均大降,营收也下滑。声誉和法律风险:Robinhood以初学者为客户,曾发生客户自杀事件(因误解账户负债),暴露了用户教育不足的问题。公司因此改进了UI并加强风险提示,但形象已受损。未来若再有类似事件,可能招致集体诉讼或监管罚款。竞争风险:随着零佣金普及,Robinhood护城河变浅。老牌券商提供更丰富服务(研究报告、咨询等),FinTech对手如Cash App、Webull也争夺年轻用户,Robinhood必须持续创新留客。经营风险:公司过去扩张时基础设施不够稳健,几次交易高峰宕机,引发用户不满。虽然有改善但系统可靠性仍需重视。另外内部治理(如2022年创始人抛售股票导致信任问题)也可能影响士气和市场信心。Robinhood需要证明自己不仅能在牛市赚钱,更能在平淡市况下保持盈利和增长,以降低这些风险。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

Robinhood的崛起伴随着相当程度的炒作气氛。其“散户的大本营”形象在社交媒体上被神化,大量年轻用户追捧,甚至将之视为对抗华尔街的符号。这在GameStop事件中达到高潮,但也凸显出公司并没有有效阻止过度投机的行为。当时Robinhood的游戏化界面被批评助长赌博心态。公司此后取消了交易庆祝动画等,以降低误导。另一方面,Robinhood上市初高估值离不开市场对其用户增长故事的炒作,但随后用户数停滞打破了幻想。可以说,Robinhood早期的营销方式(免费、注册送股票)非常激进地拉新,让一些财商不高的用户贸然入市,留下隐患。监管层也批评其“将交易游戏化”。这些都属于过度宣传的范畴。目前公司已吸取教训,强调“长期投资”理念、推出IRA等产品引导用户长期理财,这是良性方向。然而在投资者沟通上,Robinhood高管仍倾向强调自身社区动能,而较少谈风险,这可能让股东低估其业绩波动性。市场对Robinhood的关注度高,一有风吹草动容易引发股价巨震,说明炒作情绪尚未完全散去。投资者应理性看待Robinhood:它确实革新了行业,但并非颠覆所有,其用户行为特征决定了业绩易受市场情绪左右。经过这两年洗礼,如今Robinhood的宣传调门已降低,炒作热度也冷却很多,这有助于公司在更理性的环境下发展。

Robinhood名字取自劫富济贫的传说,而公司愿景也是**“让人人都能参与投资”**。从社会角度看,它确实在一定程度上实现了投资民主化——数千万以前从未买过股票的普通人因为Robinhood踏入资本市场。长期来看,这有几个积极影响:(1)财务包容性:更多人口(尤其年轻人、少数族裔)接触投资,有机会分享到经济增长红利,财富差距有望略微收窄。这对于美国“股市只属于富人”的传统格局是一个冲击。(2)金融意识:Robinhood培养了一代人的投资兴趣,许多人因此学习金融知识。这在几十年后可能形成更大众化的投资文化和更成熟的投资者群体,有助金融市场长期稳定。(3)推动行业革新:正如免费交易已成为行业标准,Robinhood促使券商改变盈利模式,更重服务质量而非收佣金。这提高了整个金融服务效率,降低了摩擦成本。资源从经纪费用转向更有价值的顾问、研究服务。但也需辩证看,散户蜂拥市场也可能带来新问题,如情绪化交易、市场波动性上升等,需要辅以教育和监管。总的来说,Robinhood让“投资”从精英游戏变成寻常事,这无疑改变了许多人理财方式和对资本市场的认知。从人性需求看,人们希望掌控自己财富的诉求得到了科技赋能;从利益看,更多人分享资本收益,有利社会稳定和消费升级。虽然过程中有阵痛,但长期视角,这种变革倾向于正面:一个更开放普惠的金融体系正在形成。当然,Robinhood只是这潮流的引爆者,后续还需整个行业和政策去引导,使其朝健康方向发展。不过以其带来的深刻影响衡量,它已在改变金融世界的道路上留下了自己的名字。

公司基本面: DLocal是一家服务新兴市场的跨境支付公司,主营为全球商户提供向新兴国家收款和付款解决方案。公司近年保持高速增长:2023年总支付处理量(TPV)达177亿美元,同比大增67%,实现营收6.50亿美元,同比增长55%。增长动力来自拉美(尤其巴西、墨西哥)和非洲、亚洲市场交易量攀升。盈利方面,DLocal表现亮眼——2023年毛利2.77亿美元(毛利率约43%),调整后EBITDA达2.02亿美元,同比增长32%,EBITDA利润率高达31%。这在FinTech公司中非常突出。GAAP净利润虽未直接披露,但根据调整后数据推算也在1.5亿美元以上,净利率约25%。公司现金流强劲,2023年自由现金流1.66亿美元。截至年底持有现金及短期投资3.26亿美元

且无负债,财务非常稳健。DLocal在扩大规模同时保持了高盈利水平,证明商业模式的可持续性。

行业发展前景与趋势: DLocal定位于**“新兴市场的PayPal+Stripe”,受益于电子商务全球化和发展中国家互联网普及。跨境支付行业趋势:发达市场商户(如亚马逊、Spotify等)正积极拓展拉美、非洲、东南亚市场,但当地支付环境复杂(多币种、多法规、多支付习惯),需要像DLocal这样的中介简化流程。预计未来新兴市场电商交易将高速增长,国际支付需求水涨船高。另一个趋势是本地支付方式崛起**:许多国家的消费者不使用信用卡而偏好现金券、电子钱包等,DLocal通过集成各种本地支付选项(200+方式)帮助全球商户触达更多用户。这需求在未来更突出。竞争方面,传统支付巨头(如Visa、PayPal)在新兴市场也布局,但DLocal专注为跨国商户解决“最后一公里”支付问题,建立了一定壁垒。随着新兴市场监管制度完善,对海外支付合规要求提高,像DLocal这样同时懂得欧美标准和本地规则的玩家有优势。公司2023年已服务全球前十大科技公司中5家, 说明其技术和合规获巨头认可。整体前景乐观:电商和数字服务的下沉,加之政府鼓励数字支付(减少现金交易),将持续驱动DLocal业务。不过需要关注汇率和宏观风险:拉美非洲货币波动和经济不稳可能影响交易量和公司利润折算。此外,一些大客户(如亚马逊)也可能培养自有支付能力。所以DLocal需保持技术领先和服务黏性来持续受益行业增长。

技术或产品创新: DLocal的核心产品是**“一对多”(OneDLocal)支付平台**,通过一次简单集成API让全球商户即刻接入30多个新兴市场的200多种本地支付方式。这极大降低了商户进入陌生市场的技术门槛。其创新体现在几个方面:1)统一结算和资金留存:DLocal为商户处理跨境资金流转,支持以商户想要的货币结算,同时解决当地复杂的外汇管制问题,让商户无需设本地实体即可收款。这涉及创新的合规和资金流设计。2)动态路由:针对某些国家支付方式失败率高问题,DLocal平台智能选择最佳通道(如本地收单银行),提高交易成功率和速度。3)反欺诈和合规系统:在拉美等欺诈率较高地区,DLocal建立了机器学习风控模型,精准识别可疑交易,保障商户资金安全。4)大规模处理能力:2023年平台处理TPV近180亿美元,单季度交易量数亿笔,DLocal开发了高并发低延迟系统以支撑此规模(同时保证毛利高,说明系统效率出众)。5)本地化服务:DLocal不仅技术上打通支付,还提供结算报告本地化、客服本地语言支持等配套,让商户运营省心。这些创新整合让DLocal成为少有的可以一次对接覆盖多国的解决方案,相比之下传统做法需逐国集成支付服务,费时费力。DLocal也在产品上不断扩展,如提供“付款”功能(商户向当地供应商付款),实现收付双向闭环。综上,DLocal技术创新更多在系统集成和合规网络上,为客户省去无形复杂成本,这是其价值所在。

当前估值是否合理: DLocal目前市值约在40-50亿美元区间,对应2023年实际盈利估算PE约25-30倍,PS约7.7倍(2023营收6.5亿)。考虑公司55%的营收增速和30%的利润率,这一估值不算高,甚至偏低。相比之下,很多增长50%、盈利率30%的科技公司PE往往50倍以上。但投资者对DLocal的信心曾被做空报告打击(2022年Muddy Waters质疑其财务),股价一度腰斩,至今未完全恢复。这导致估值偏低。然而DLocal用业绩反驳了质疑:2023年不但超额完成指引,财报透明度也提高。若能够重建信任,估值有提升空间。可比公司看,拉美支付巨头MercadoLibre的支付子业务增速和利润率与DLocal相近,其市销率在10倍以上。Adyen等全球支付公司增长慢些但PS依然10倍上下。因此DLocal当前估值或低估了其成长+盈利兼备的稀缺性。当然,市场仍有忧虑:对其客户集中度、公司治理(联合CEO制)等不确定打折。若后续证明风险可控,估值理应向同行靠拢。综上,DLocal以成长股眼光看估值偏低,以价值股看也有利润支撑,算是相对合理但有潜在修复空间的状态。

潜在风险因素: DLocal面对的最大风险之一是客户集中风险。公司声明已服务世界前十大科技公司中的5家, 说明顶级客户贡献大额交易量。一旦这些巨头改变策略(例如改用自建支付或竞品),DLocal交易量和营收可能受冲击。二是新兴市场风险:包括政治不稳定、经济危机、汇率剧烈波动。如阿根廷2023年高通胀和资本管制,DLocal资金运营难度增加。此类风险若在更多市场发生,会干扰公司增长。三是合规风险:跨境支付牵涉反洗钱、外汇管制等法律,DLocal如果在某国违反规定,可能被罚款或吊销牌照。公司必须严守各地法规,但法规变化无常也是隐患。四是竞争风险:虽然暂时在利基市场领先,但不排除Visa、PayPal等巨头通过收购或提升本地化能力进入这一领域。DLocal必须持续提供差异化价值和维护本地关系。五是公司治理及可信度:2022年Muddy Waters发布做空报告,质疑公司资金流、增长真实性等。虽然董事会调查后称指控无依据, 但仍给投资者心理留下阴影。未来若公司不能持续保持高透明度,投资者可能对财报心存疑虑影响估值。总之,DLocal处境相对复杂的新兴市场,风险不能掉以轻心,需要精细化运营和准备应急预案。是否存在误导性宣传、炒作风险: 与很多to-C FinTech不同,DLocal服务对象主要是跨国企业,属于to-B模式,营销上较低调少见公众炒作。做空风波是特例,那是投资层面的质疑而非公司主动宣传。DLocal对外沟通大多集中在财报和投资者日,用事实数据说话。例如2023年Muddy Waters指控其增长异常,DLocal管理层用超预期业绩和启动1亿美元回购表达信心, 并未过多口头辩解或粉饰。公司宣传重点一直是**“150%的净收入留存率”**等运营指标, 这真实反映老客户留存和增购情况,算坦诚透明。相对于一些竞争对手吹嘘覆盖多少国家用户等,DLocal更强调商户价值创造(如帮助某全球电商将拉美转化率提高X%)。当然,从投资者角度,由于DLocal身处拉美市场,信息不对称较大,当初Muddy Waters报告就是利用这一点引发恐慌。因此,市场可能仍对DLocal有戒心,需要时间和详实披露来消除疑虑。如果说误导风险,一是在做空事件上,公司开始否认财务问题但未即时提供充足解释,使股价短期失血50%, 这说明沟通节奏需改进。二是投资者容易被表面高增长吸引忽视风险,此时需要公司主动披露风险。DLocal近来加强了投资者关系和信息披露,这降低了误解可能。总体而言,DLocal本身炒作动机不强,反而过去被外部杂音所困扰。随着公司成熟稳定,相关争议应会减少,关键在于保持务实可信的形象。

长期改变世界的潜力: DLocal的服务本质上是让全球商业更平滑便捷,尤其惠及新兴经济体。从利益和社会需求角度看,其长期意义在于:1)助力新兴市场融入全球经济。以前跨国公司碍于支付难题,不愿进入小国市场,消费者买国际产品也不方便。DLocal消除了这个壁垒,让乌干达的用户也能订阅Netflix、哥伦比亚的小商户能向全球卖货。这增加了当地消费者选择,促进当地电商和数字服务发展。2)缩小数字鸿沟:许多发展中国家金融基础设施落后,DLocal通过技术弥补,比如没有信用卡的人可以用现金券支付跨境网购。这实际上普惠了全球数字经济红利,让更多人享受现代服务。3)提高全球商贸效率:跨境支付传统流程复杂昂贵,DLocal简化后节省大量中间成本和时间,提高了贸易效率。这有望转化为更低的商品价格或更高的商户利润,双赢。4)催生本地创新:当海外服务涌入,当地企业也会在DLocal等基础设施上开发自己的出海服务,例如把自己产品卖到海外客户手中。这带动了新兴市场创业,创造就业和税收。人性层面,人们渴望便利和公平接入全球市场,DLocal满足了这一点;利益层面,商户和消费者都因更顺畅支付而得利。从长期看,如果每个国家的人都能平等参与全球数字经济,不受支付阻碍,这对于实现真正全球化意义重大。当然,这需要更多公司和政策共同努力,但DLocal作为桥梁已做出示范。它改变世界的方式也许不如改变消费金融那样直接触及个人,但在经济运行层面,有了DLocal,世界贸易的摩擦就降低了一分,全球村的理想也更近了一步。

行业概况: 新兴市场(Emerging Markets)一直是全球增长的重要引擎,也为投资者提供巨大潜力和挑战并存的机遇。随着互联网和移动技术下沉,新兴市场的数字经济正快速崛起。例如拉美、东南亚地区涌现一批科技平台,服务原本被忽视的人群。本主题关注三家新兴市场代表企业:Nubank(拉美数字银行)、Grab(东南亚超级应用)和重复出现的DLocal(跨境支付),分别从金融服务、出行及本地生活服务、支付基础设施三个角度切入,探索新兴市场科技公司如何改变当地社会和融入全球格局。

Nubank是拉美最大的数字银行,于巴西起家,并扩展至墨西哥、哥伦比亚。公司近年用户和财务增长极为迅猛。截至2023年底,Nubank拥有客户9,390万人,较两年前翻番。2023年全年营收80.29亿美元,同比增长约67.5%。主要收入来自净利息收入(发放信用卡、个人贷款等)和手续费收入(交易刷卡、互换费等)。随着规模效应,Nubank盈利能力显现:2023年净利润达10亿美元,较2022年的净亏损910万美元实现大幅扭转。净利率约12%,ROE达23%。公司在2023年每季度均盈利,其中Q4净利3.609亿美元,为利润最高季。运营指标也优秀:活动客户比例达83%、月均每客户收入(ARPAC)10.6美元,同比增长23%。资产质量方面,巴西15-90天逾期率略降至4.1%,90天以上逾期稳定在6.1%,风险可控。同时Nubank资本充足率接近监管要求两倍,流动性充裕。整体而言,Nubank已从烧钱扩张转向兼顾增长和盈利的阶段,基本面极为亮眼,在全球FinTech中罕见。

拉美地区传统银行服务昂贵且覆盖不足,大量人群是“未充分银行化”的状态(例如巴西过去近三成人口无银行账户)。Nubank瞄准这一痛点,用免费或低费的数字产品大规模吸引用户,顺应金融普惠的大趋势。拉美年轻人多、智能机普及,天然适合数字银行模式。未来行业趋势包括:数字化取代实体网点——过去巴西人开卡要跑银行排队,现在Nubank App几分钟搞定,这是不可逆的趋势。产品多元化——Nubank从信用卡起家,逐步增加储蓄、投资、保险等,未来或提供更多财产管理、贷款品种,实现全能银行,增加客户LTV和粘性。区域扩张——Nubank已是巴西第四大金融机构,下一步重点增长来自墨西哥和哥伦比亚等新市场,这些国家青年人口多而传统银行弱,复制Nubank模式潜力大。竞争格局——传统银行也推出数字应用应战,但往往收费高、体验差,难以扭转客户流失。反倒新兴FinTech如PicPay、PagBank等在局部竞争Nubank,但尚难匹敌其规模优势。宏观环境:拉美经济波动对消费信贷业务影响大,如2021-22年通胀高企曾提高坏账水平。但Nubank策略是低风险起步(先推信用卡小额额度),逐步进入高利润贷款领域,这种稳健策略帮助其熬过周期。在政策端,巴西央行推行开放银行和PIX实时支付系统,反而利好灵活的数字银行。综上,Nubank所在行业前景光明,在拉美甚至全球都可能诞生新银行巨头。挑战在于继续控制信用风险,保持创新速度,以及国际化推进过程中的本地化能力。

Nubank的成功很大程度归功于其产品和运营创新。技术上,它打造了移动端极简银行体验:用户在App上几分钟即可完成开户和申请信用卡,无需繁琐纸质流程。这背后是全数字化的KYC和风控系统,Nubank应用人脸识别、大数据等技术快速核验身份和信用。无需年费的紫色信用卡是Nubank明星产品,用明亮设计和优惠回馈迅速吸引年轻人,与传统高费率信用卡形成鲜明对比。Nubank还创新地取消繁琐收费:如免年费、账户管理费,不设最低余额,从而赢得用户口碑。该公司的风控模型也是创新亮点,利用机器学习分析海量非传统数据(如手机行为)来评估信用,使从无征信记录的人也能获得小额信用卡额度,并根据使用情况动态调整。这极大拓展了信贷覆盖人群。Nubank还引入实时客户支持和社区运营:通过App内聊天支持7x24服务,推出社区频道与用户互动,提升用户黏性。此外Nubank高度重视PIX实时支付,是首批集成巴西央行PIX系统的平台,让用户可以免费秒级转账,极大方便了日常支付。近期Nubank还推出了加密货币交易、“NuInvest”投资平台,方便用户购买基金、股票。技术架构上,Nubank采用云原生微服务,支撑其近亿用户并发需求,2023年公司科技团队还开源了部分内部工具。可以说,Nubank的创新在于以科技和用户体验颠覆了传统银行臃肿缓慢、收费高昂的模式,为用户提供简单、公平、愉悦的金融服务,难怪会积累如此庞大用户基础。

Nubank于2021年底上市,彼时一度市值达400亿美金以上。但随全球市场调整,目前市值约在350-400亿美元附近。以2023年盈利10亿计算,静态PE约35-40倍;考虑其2024年盈利预期更高,前瞻PE可能降至30倍以内。鉴于Nubank2023年营收增长近60%、客户基数庞大且刚起步商业化,这样的估值不算过分。在银行类股中,这看似很高,但Nubank本质为高成长科技+金融混合体。比较一下:美国数字银行Chime估值曾达250亿美元但仍亏损;巴西传统银行如Itau市值约500亿美元,净利却只有Nubank两倍多,增速微弱。Nubank增速和盈利双高,理应享受溢价。市场可能仍有疑虑在于其利润是否可持续(风控是否能长期保持优异)以及巴西利率下行对净息差影响。然而Nubank存款成本极低(因为活期为主),加息周期反而利好其利差,降息会压缩收益但也刺激借贷需求。综合看,Nubank正高速成长为主流盈利公司,PEG比在0.5以下,显现低估倾向。不过考虑新兴市场风险溢价,市场给一定折扣也合理。总体而言,Nubank目前估值处于高成长金融股偏合理偏低范围。如果能持续证明风控和盈利能力,估值提升空间可观。

信用风险是Nubank最大的经营风险。拉美用户信用数据有限,经济波动大,如处理不慎坏账可能飙升吞噬利润。Nubank需要持续精进风控模型,防范过度授信。所幸其2023年资产质量指标稳定在可控范围。监管风险:金融行业强监管,Nubank在巴西已受央行类似传统银行监管,包括资本充足率要求等。如果未来监管者要求数字银行承担更多社会责任(如向低收入群体放贷指标)或出台对金融创新的限制,都可能影响其运营自由度。此外,各国监管协调不足可能阻碍其在墨西哥等扩张(不过目前墨西哥也授予Nubank银行牌照)。市场竞争风险:虽然Nubank遥遥领先,但巨头不会坐视。传统银行如Itau推出数字子品牌,电信运营商、零售商等也在推金融App抢客户。还有国际玩家如Revolut可能进军拉美。这会提高获客和留客成本。宏观经济风险:拉美一直有经济周期性高波动问题,如巴西利率曾飙至两位数,目前才开始降。高利率抑制借贷和消费,也影响Nubank利差和坏账。高通胀侵蚀居民实际收入,影响用户理财能力。运营及文化风险:Nubank扩张很快,员工数大增(2023年近9000人),跨越多国,要保持创业文化和执行力有挑战。且需管理多元文化差异,例如墨西哥用户习惯和巴西不同。汇率风险:Nubank报告以美元计价,巴西雷亚尔等汇率波动会影响财务报表。公司有约24亿美元自由现金, 但主要是本币形式,需做好汇率管理。总体看,Nubank虽风光,但处境并非高枕无忧,需要严控风控、稳健扩张、多国合规,方能行稳致远。

是否存在误导性宣传、炒作风险

Section titled “是否存在误导性宣传、炒作风险”

Nubank以挑战旧金融为使命,在营销上非常接地气,主打“无摩擦、无套路”卖点。它的紫色品牌深入人心,让用户自发成为拥趸。在投资者市场,2021年美股IPO时公司大受瞩目,因为它代表拉美最大独角兽。但上市后赶上成长股熊市,股价跌去大半泡沫,如今估值回归理性。因此目前炒作风险较低,投资者对其期望趋于现实。公司宣传总体属实:2023年创始人接受采访时着重列举了财务转盈、用户过亿等硬指标,没有吹嘘遥远愿景。Nubank愿景确实是改变拉美金融版图,从数据看它正做到这一点。做空势力对Nubank兴趣不大,一方面因为其资产主要本地化不易质疑,另一方面公司披露透明、背后有巴菲特等价值投资者加持,市场信心尚可。需要注意的是,某些媒体对Nubank头衔的渲染(“全球最大数字银行”)可能让部分投资者误认为其已经高枕无忧,忽视风险。实际Nubank虽然用户数冠绝数字银行,但业务厚度和传统银行仍有差距,还在成长期。因此需要投资人正确理解:它是高成长性而非稳定蓝筹。如果期望错误,把Nubank当稳定银行股对待,可能出现估值预期偏差。不过整体而言,公司公关和IR都比较稳健,没有过度包装业绩。目前股价低于发行价约一半,也是市场冷静的体现。Nubank自身注重长期口碑,炒作意味不浓。

Nubank在拉美推动的金融民主化有深远社会意义。从人性角度,金融服务是现代生活的必需品,而Nubank让数千万原本被金融体系排斥的人第一次有了平等获取优质服务的机会。这提高了个人的财务自主性和自尊,也可能打破因金融门槛造成的社会阶层固化。从利益角度,Nubank通过降低费用和利率,每年为用户节省了大量成本,也迫使整个行业降价,让利于民。例如巴西信用卡年费曾高达几十美元,现在很多银行也被迫免费,这是Nubank带来的利好。更宏观地,Nubank的发展在提振拉美创业与投资热情。因为它成功范例让更多资金和人才投入拉美科技创新,形成良性循环。这有助于地区经济转型升级,不再过度依赖资源或传统产业。而就金融体系本身,Nubank提高了透明度和效率,减少现金交易有助打击洗钱和贪腐,让经济更正规健康。这也契合社会对公平、廉洁的需求。Nubank的故事还给世界其他新兴市场提供了模板——像非洲、南亚地区,都可借鉴数字银行普惠模式服务未涉足人群。可以说,Nubank正在重绘拉美金融版图,让金融服务真正成为一种普惠公共品,而非少数人的特权。这将释放基层活力:小微企业更易融资、个人理财习惯养成、消费扩大等,对社会进步推动巨大。当然,任何变革都有阵痛,比如债务易得也可能引发过度借贷的风险文化,需要良好教育引导。但总体看,Nubank为构建一个更包容高效的金融生态所做的努力,不仅改变了数千万人的生活,也为全球新兴市场探索出范例,其改变世界的潜力毋庸置疑。

Grab是东南亚地区领先的超级应用,主营网约车、外卖配送和金融服务等。公司2023年实现收入23.59亿美元,同比增长约64.6%。其中第四季度营收6.53亿美元,同比增30%,并首次单季盈利1100万美元。2023年Grab大幅缩减亏损,全年度净亏损降至5.41亿美元,较2022年减亏近39%。这种改善得益于收入高增及成本优化(包括裁员、激励减少等)。更亮眼的是2024年Grab实现了全面扭亏:全年营收29.5亿美元,同比增长58%,净利润14.1亿美元,净利率约48%。这主要因为Grab调整了对地区合资公司的会计处理,一次性确认了14亿美元收益,从经营角度看,扣除该项目公司仍有2.5亿美元左右核心亏损。活跃用户方面,Grab2023年末月活用户3320万

(东南亚约6.7亿总人口),用户规模仍有很大增长空间。交易总额GMV方面,外卖2023年GMV约101.7亿美元,运输约38.5亿美元。值得关注的是Grab的调整后EBITDA已在2023年下半年转正,并预计2024年全年来看可实现正自由现金流。这说明Grab核心业务模型已接近成熟盈利阶段。

Grab所处东南亚是全球增长最快的数字经济市场之一。互联网普及和中产阶层崛起推动网约车、外卖等需求飙升。行业趋势:超级应用生态在东南亚颇具前景,用户喜欢在一个App搞定出行、订餐、支付,Grab和印尼的Gojek竞争激烈,双方都扩展多元服务抢入口。本地化多元服务:相比西方,东南亚市场极度多样,各国文化差异大,Grab需因地制宜,例如菲律宾现金支付多,泰国有嘟嘟车服务等。未来Grab会继续本地创新以贴合用户场景。盈利优化:补贴大战在2020年前后结束,各平台开始追求盈利,提升抽成费率、智能调度提高效率、发展自营高毛利业务如广告等。东南亚外卖和出行市场已走过最烧钱阶段,正进入良性竞争。区域合作与整合:Grab与Gojek过去一度尝试合并未果,以后可能各自巩固主场(Grab在新马等地领先,Gojek在印尼领先),同时扩张对方弱区,但也存在收购或联盟可能,以对抗Shopee等电商涉足外卖。监管变化:各国政府逐步出台法规规范网约车和外卖佣金,如限制抽成上限、保障司机骑手权益等,这会影响盈利水平,需要平台协商平衡。金融服务机会:Grab拥有海量商户和用户数据,拿到数字银行牌照,未来金融业务(借贷、保险、理财)可能成为新的增长点。综合看,东南亚超级App赛道已从粗放竞争走向精耕细作,Grab作为先行者优势明显。但必须不断创新服务和提高效率才能保持领先。

Grab作为超级应用,其创新集中在平台整合和本地化服务上。技术方面,Grab开发了多服务统一技术架构,实现同一应用界面无缝切换不同服务模块。例如地图引擎既服务网约车路线也用于外卖骑手导航,大数据引擎同时支持交通ETA预估和餐品送达时间预估。Grab庞大的智能派单系统是核心竞争力之一,通过AI算法同时考虑司机位置、乘客等待、餐厅备餐时间等因素优化匹配,最大化司机利用率和用户体验。Grab还在东南亚复杂交通环境下推出创新服务,如摩的(摩托车打车)、拼车,这些创新满足了当地城市道路狭窄、收入水平较低等特点,比照Uber单一轿车服务更符合需求。支付方面Grab推出了GrabPay钱包,一方面方便用户无缝支付各项服务,另一方面培养生态货币,可用于积分返利和线下商户支付,形成闭环。Grab还打造超级会员计划,跨出行、外卖享受折扣和积分,从而增强用户黏性。为了赢得用户信任,Grab注重安全创新,如率先推出司机人脸识别验证、行程分享、紧急按钮等安全功能。疫情期间,Grab快速上线无接触配送、取餐柜等,体现敏捷的产品响应。此外,Grab在东南亚大力推广云厨房模式,用数据选址建立外卖厨房,提高外卖履约效率。可以说,Grab的创新既包括技术算法层,也有商业模式层,且均围绕东南亚独特的消费习惯和基础设施状况展开,难以简单复制。这种深入本土的创新能力是Grab维持竞争壁垒的关键。

Grab上市以来股价低迷,目前市值约140-150亿美元。按照2024年调整后EBITDA转正并进一步增盈的预期看,Grab估值在销售端约5倍PS,对应EBITDA倍数也不算高。不过由于Grab至2023年才刚盈亏平衡,市场仍在观望其盈利质量和可持续性。一方面,Grab在多个市场占据垄断或寡头地位,长期盈利潜力可期;但另一方面,其利润率可能受监管和竞争压制,不会太高。可类比的是Uber当前PS约2倍、PE50倍左右,Grab体量和增速比Uber高,但所处市场规模较小、风险较高,因此PS高于Uber但也有限。Grab目**前估值低于IPO发行价75%**以上,这表明早期泡沫已挤出,而如今价格大致反映理性增长预期和一定风险折价。若Grab能连续几个季度保持盈利增长,估值有扩张空间;但若再度陷入亏损或增长停滞,估值可能继续受压。市场还关注其现金储备(超50亿美金)如何使用,如进行收购或回购可能提升股东价值。从投资角度看,Grab估值相对其在东南亚的支配地位略低,这或许因为投资者风险偏好下降和对东南亚宏观担忧。如果自身运营指标持续向好,这种低估将逐渐修正。因此当前Grab估值基本合理甚至偏低,但需要盈利兑现来催化上行。

监管和政策风险:东南亚各国政治体制不同,政策变化频繁。网约车和外卖属于新业态,各国可能颁布政策如价格管制、雇佣关系认定等。印尼曾限制摩的服务载客,菲律宾规定佣金上限等,这些都直接影响Grab收入和成本。如若各国政府强制提高司机福利(保险、最低薪酬),Grab可能面临成本上升。竞争风险:Grab在新加坡、马来等地领先,但在印尼面对GoTo集团的激烈竞争,后者本土根基深厚。此外Shopee等电商巨头涉足外卖配送、AirAsia转型做出行服务等,都可能蚕食Grab市场。一旦竞争重新加剧,补贴战卷土重来将拖累盈利。运营风险:Grab业务广泛,涉及数百万司机骑手、餐厅合作伙伴,稍有服务问题就可能引发社交媒体负面。之前Grab在并购Uber东南亚业务后出现司机抗议佣金调整、配送延迟等事件,损害口碑。如何在提升盈利同时照顾生态各方利益是挑战。宏观经济及疫情风险:东南亚经济若放缓,将减少出行和外卖需求,影响GMV增长。通胀高企会压缩用户可支配收入,也对消费不利。另如新疫病流行,网约车需求会骤降,不过外卖可能上升。技术与安全:大规模平台对IT稳定性要求极高,Grab若发生重大数据泄露或应用宕机,会造成信任危机。此外,线下司机乘客安全事件、食品卫生等突发状况需谨慎应对,否则品牌受损。货币和法律:Grab营收多以当地货币产生,汇率波动会影响财报。且Grab在美股上市受美国法管辖,如果中美关系紧张对其业务融资也有潜在影响(尽管总部在新加坡)。整体看,Grab处于多市场多业务复杂运营环境,以上风险需精细管理,一环失守可能连锁反应,不过Grab已历练多年,风险意识在增强。

是否存在误导性宣传或炒作风险

Section titled “是否存在误导性宣传或炒作风险”

Grab面向消费者营销时常使用补贴和优惠拉新,这被部分人视为宣传上的“繁荣假象”。早期Grab确实依赖烧钱补贴获取市场份额,给投资者讲了一个宏大故事(超级App接管东南亚日常生活)。SPAC上市时估值颇高,也有一定资本市场炒作成分。然而经过业绩验证,Grab股价已大幅回落。管理层近来也更务实,转而强调降本增效和盈利时间表。媒体报道对Grab的调性从“烧钱王者”变成了“迈向盈利的超级App”,市场预期趋于理性。Grab在用户端的宣传主要突出便利和本地化特色,没有明显误导。但在司机端,过去有争议如佣金算法不透明,被质疑盘剥司机;Grab现改进沟通,提高抽佣透明度。对投资者,Grab创始人陈炳耀等高管未曾夸口不切实际目标,一直强调长期价值和社会影响,如帮助司机增收、促进数字经济等。这方面Grab声誉良好,并未出现重大诚信问题。不过,投资圈对Grab的未来潜力仍存在两极看法:有的认为会成为阿里腾讯级巨头,有的觉得天花板明显不值高估。这种分歧可能导致外部分析时对其叙事的不同解读。Grab需要通过持续的稳健业绩来让质疑者信服,而不是靠包装故事。总之,Grab的炒作泡沫基本破灭,宣传基调更贴近实际业绩,这是健康的信号,不误导市场反而增强了公信力。

Grab的出现和壮大,对东南亚地区的社会经济带来了积极改变。从人性需求看,Grab满足了人们对便利生活的渴望:过去在曼谷打车要在路边拦嘟嘟车讨价还价,现在动动手指空调车上门接送;下雨天不想出门,Grab送餐服务让家庭轻松享用美食。这些都极大提升了生活品质。对没有银行卡的人,GrabPay提供了数字钱包,让更多人参与数字经济。从利益角度,Grab创造了大量灵活就业机会。数百万司机、骑手借此增收养家,社会闲散产能被利用,同时旅客餐客得到服务,双赢。Grab还帮助无数中小餐饮商户扩大销路,通过外卖获得新收入来源,在疫情中尤为关键。社会影响方面,Grab建设的地图、导航、支付等基础设施,间接推动了东南亚城市的数字化转型。例如Grab的数据协助政府优化交通规划,GrabPay普及推动无现金社会建设。这些提升了整个社会运转效率。此外,Grab注重企业社会责任,如推出老人和残障友好服务、救灾应急运力支持等,强化社区凝聚力。从更大格局,Grab作为东南亚本土科技龙头,鼓舞了本地区创业创新精神,吸引国际资本关注东南亚市场,带动了地区数字经济整体发展。这有助于东南亚实现跨越式增长,改善地区在全球价值链的位置。可以说,Grab改变的虽是衣食住行等日常琐事,却正是这些点滴改变汇聚成了世界的一隅发生显著进步。将来,Grab若继续演进超级App生态,可能成为当地居民不可或缺的生活平台,就像微信之于中国。那样的愿景一旦实现,Grab对社会效率、人们生活方式的改变将更加深入持久。

(DLocal的分析已在“金融科技”部分给出,这里着重从新兴市场视角简述,以避免重复)

DLocal扎根乌拉圭,却服务全球,是连接发达市场和新兴市场的支付桥梁。对于新兴经济体来说,它吸引国际商家进入本地、刺激本地消费者融入全球消费网络,从而激活当地数字经济。DLocal解决了这些国家长期存在的国际支付痛点,可谓新兴市场数字贸易的关键基础设施之一。

通过DLocal,本地用户能方便地购买Spotify订阅、在亚马逊购物或玩全球手游,这之前由于支付不通无法做到。反过来,本地企业也能通过DLocal收外币付款,把产品卖向世界。这提升了新兴市场企业的跨境竞争力。DLocal还协助客户合规,省去各国繁琐外汇手续,便利了贸易往来。

随着非洲、拉美互联网用户爆发,新兴市场消费力崛起,DLocal这类支付通道的重要性越来越高。它本身业绩的腾飞说明了全球商家争相涌入这些市场的趋势。从更广视角看,DLocal促进了资源在全球范围更有效配置:发达国家数字服务找到新市场,新兴国家民众获得更多选择和更实惠价格,这是互利共赢的长期正向影响。

新兴市场环境瞬息万变,DLocal要保持灵活应对不同国家政策和货币风险,这也是在为整个生态趟路。尽管风险不小,但它以创新和勤勉证明了可行性。只要持续稳健经营,其模式可推广至更多发展中地区,把亚洲、非洲更多市场纳入全球数字经济版图。

假以时日,DLocal有潜力成为全球支付网络的一极,与Visa/Master这些传统巨头互补。对于新兴市场来说,这等于拥有了自己主导的话语权支付渠道,不再完全受制于西方体系。这将赋予新兴经济体更多金融主权和发展空间。从这个角度看,DLocal不仅是一个商业公司,更承载着新兴世界融入现代经济体系的希望,其长期潜力和意义不可小觑。

最后,用表格对相关关键数据进行简要比较:

公司2023年收入增速2023年调整后EBITDA利润率活跃用户规模主要市场
Nubank(拉美数字银行)~+67%~20%(净利率约12%)9,390万客户巴西、墨西哥等拉美
Grab(东南亚超级应用)~+65%略为转正(2023年下半年)月活3,320万新加坡、印尼等东南亚
DLocal(跨境支付)+55%31%N/A(B2B,服务数百商户)拉美、非洲、亚太发展中市场

表:新兴市场主题公司的增长与盈利概况比较。

以上三家公司紧抓各自地区机遇,通过科技和模式创新高速成长,正在满足新兴市场人们的渴望,亦深刻改变着当地的经济和生活图景。

AI时代的工程师成长心法

本文总结四个常被忽视却极其关键的成长心法:少争对错多争共赢、先做出来再优化、不怕撞题坚持差异化、别浪费时间证明自己。

在 AI 技术飞速发展的今天,工程师面临的不仅是技能的升级,更是人生观与职场心态的考验。你是否曾因据理力争而得罪同事?是否为追求完美错过了窗口?这些经历很常见,也正是本文想探讨的。多年踩坑后,我总结出四条在实践中屡试不爽的成长心法,愿你读后有所共鸣。


1. 利益思考:沟通不争对错,只争共赢

Section titled “1. 利益思考:沟通不争对错,只争共赢”

初入职场时,我也热衷证明“我是对的”。后来逐渐发现:在组织环境里,“对”往往不是最重要的,“对项目/团队有利”才是。执着于抽象“优雅”与“纯粹逻辑”,却忽视交付、风险、资源与收益的平衡,容易被视为“抬杠”。

关键转变:

  • 从“我要赢”换成“团队是否整体更好”
  • 从“理论完美”换成“本期目标价值最大化”
  • 从“辩论立场”换成“协作博弈→共赢方案”

一个实用小技巧:发言或反驳前,默数 5 秒并自问:

  1. 这句话是否能推动决策或结果?
  2. 是否对对方及团队公平且有益?
  3. 是否有更低冲突成本的表达方式?

少争对错,多争共赢,你的合作者标签、影响力与信任度都会自然提升。


2. 不过早优化:先做出来,验证了再说

Section titled “2. 不过早优化:先做出来,验证了再说”

完美主义常让第一版迟迟无法落地。用户未验证、价值未闭环,却在性能、抽象、体系化设计上过度投入,是典型的“过早优化”。
第一版(V0 / MVP)的使命只有两个:

  • 验证有没有真实用户要用
  • 验证路径是否值得继续押注

实践建议:

  • 设定“本轮最小成功标准”(MSL:Minimal Success Level)
  • 控制首次交付投入上限(人日 / 复杂度 / 依赖)
  • 留“可重构缓冲区”而非一次性定死架构
  • 记录假设→上线→反馈→迭代节奏(加速循环而非堆功能)

当出现:稳定核心使用频次 + 明确 100+ 真实使用者 + 真金白银或强留存信号,再系统化重构/性能优化才划算。

口号不是“将就”,而是“快速求证 + 有的放矢”。


3. 不要被逻辑吓怕:有人做过也没事,做出你的不同

Section titled “3. 不要被逻辑吓怕:有人做过也没事,做出你的不同”

“别人已经做过了”不是否决理由,而是市场存在与可学习样本的信号。差异化来源不只在技术本身,还可能在:

  • 视角:同一问题的新表述、切口、受众聚焦
  • 体验:流程压缩、摩擦点消除、反馈即时性
  • 价值交换方式:开源/闭源、订阅/一次性、社群 + 工具复合形态
  • 叙事与人格:信任与文化调性构成隐形壁垒

执行步骤示例:

  1. 列出现有解的优缺点矩阵
  2. 标记未被充分服务的用户场景 / 情绪点
  3. 以“减法”定义你的核心差异最小集合(Differentiated Core)
  4. 先做出可感知差异的 Demo,收集真实反馈再扩展

不要高估“重复”的风险,低估“持续 + 差异 + 聚焦”的复利。


4. 不浪费时间证明自己:把精力用在创造和快乐上

Section titled “4. 不浪费时间证明自己:把精力用在创造和快乐上”

技术人最稀缺的不是工具,而是持续深度投入的注意力。与其在无意义的争论、情绪性拉扯中内耗,不如将胜负欲转化为构建力。

常见内耗陷阱:

  • “我一定要让他承认我更懂”
  • “他们不认可=我不行”
  • “必须回击每一句挑衅”

替换策略:

  • 以成果 / 代码 / 指标 / Demo 说话
  • 识别“无效争论”:不可证伪 + 无决策权 + 情绪主导
  • 设定个人“注意力黑名单”:不触发、不追击、不复读
  • 建立正向回路:输出(文章/开源/原型) → 反馈 → 改进

你的作品会替你建立身份与声誉,而不是一时的键盘胜负。


四条心法回顾:

  1. 少争对错,多谋共赢
  2. 先验证价值,再精雕优化
  3. 不怕撞题,坚持差异化
  4. 不耗于证明,专注持续创造

AI 时代工具红利在加速“能力折旧”:仅靠会用某技术栈已不足以形成长期护城河。真正形成稳固复利的是:

  • 心态弹性
  • 策略性执行
  • 差异化表达
  • 专注与持续复盘

成长道路难免曲折,只要方向对了,就不怕路远。愿我们既拥抱技术浪潮,也能沉淀内在的判断力与创造力。

Claude Code + ArkTS 开发鸿蒙 App:几分钟做出 BLE 低功耗蓝牙管理器

用 Claude Code 做“懂鸿蒙 ArkTS 的结对程序员”,在 ArkTS 里写出能扫描 / 连接 / 读写 / 订阅的 BLE 管理器,真机可跑、日志可查、问题可排。


引言|为啥用 Claude Code 搭 ArkTS?

Section titled “引言|为啥用 Claude Code 搭 ArkTS?”

做 BLE 低功耗蓝牙管理器的都懂:协议细碎、厂商千差、版本在飞。HarmonyOS/ArkTS 的文档又多又散,新人上手容易迷路。 我的做法很接地气:把官方文档“喂”给 Claude Code,让它在代码区当“看着手册写代码”的搭档;我们专注业务和调试节奏。

  • ArkTS 是鸿蒙原生首选语言,基于 TS 强化了静态检查与性能(官方定义与入门见这里 https://developer.huawei.com/consumer/cn/arkts/)。
  • BLE 在鸿蒙上走 @ohos.bluetooth.ble 模块,核心能力:扫描、广播、GATT 客户端/服务端。
  • 真正的数据交互走 GATT:读写特征、订阅通知。

这套组合拳的好处:减少瞎猜,直接照文档写;Claude Code 负责搜、比对、补全;我们控制架构、状态机与日志。


准备工作|把文档放进 Claude 的“胃”

Section titled “准备工作|把文档放进 Claude 的“胃””

0)目标背景 我们要用 ArkTS 做一个连接低功耗蓝牙设备(BLE)的 App

1)下载官方文档并在项目里建资料夹 到华为开发者官网拉 ArkTS & BLE 文档(含指南与 API 参考),离线放到项目 /harmony-os-docs/

2)写一份 CLAUDE.md(示例) 把 Claude Code 当队友,请它严格参考这些文档,再帮你产出 ArkTS 代码与说明:

# CLAUDE.md(节选)
You are my ArkTS + BLE copilot. Always quote and align with these docs:
### ArkTS
- @harmony-os-docs/cn/doc/harmonyos-guides/typescript-to-arkts-migration-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-coding-style-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-high-performance-programming.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-migration-background.md
- @harmony-os-docs/cn/doc/harmonyos-guides/arkts-more-cases.md
- @harmony-os-docs/cn/doc/harmonyos-guides/introduction-to-arkts.md
### BLE (HarmonyOS)
- @harmony-os-docs/cn/doc/best-practices/bpta-bluetooth-low-energy.md
- @harmony-os-docs/cn/doc/best-practices/bpta-reasonable-bluetooth-use.md
- @harmony-os-docs/cn/doc/harmonyos-guides/ble-development-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/br-development-guide.md
- @harmony-os-docs/cn/doc/harmonyos-guides/gatt-development-guide.md
Rules:
- Prefer ArkTS idioms and coding style.
- Cite doc path + section when uncertain.
- If API differs by version, note the min API level & capability.

这一步的关键是约束 Claude:不熟就查;不确定就标注。ArkTS 风格指引、性能建议都能直接引用到代码审查里。


快速打样|ArkTS + BLE 的基本动作

Section titled “快速打样|ArkTS + BLE 的基本动作”

权限与能力entry/src/main/module.json5 里声明所需权限(示例,按你的 API/版本微调):

  • ohos.permission.USE_BLUETOOTH(启用蓝牙)
  • ohos.permission.DISCOVER_BLUETOOTH(扫描 / 配置)
  • ohos.permission.LOCATION(扫描关联位置申请,按 UX 规范前台说明)

模块入口 ArkTS BLE 走 @ohos.bluetooth.ble,扫描用事件 ble.on('BLEDeviceFind', cb) 获取结果;发现设备后创建 GattClientDevice 进行连接与 GATT 读写/订阅。

官方“最佳实践:BLE 扫描/连接状态管理”对业务层状态机也有建议,可参考落库。


代码落地|一个可用的 BLE 管理器(ArkTS)

Section titled “代码落地|一个可用的 BLE 管理器(ArkTS)”

启动 Claude Code,要求它实现:

Terminal window
> 写一个 `BleManager` 类,能**启用/扫描/连接/读写/订阅/断开**,并暴露状态与错误回调。
位置:`entry/src/main/ets/utils/BleManager.ets`
能力:启用/扫描/连接/读写/订阅/断开/状态管理/关键日志

代码生成结果

// entry/src/main/ets/utils/BleManager.ets
import ble from '@ohos.bluetooth.ble';
import { BusinessError } from '@ohos.base';
type Device = {
deviceId: string; // 如 "XX:XX:XX:XX:XX:XX"
name?: string;
rssi?: number;
advData?: Uint8Array;
};
type ConnectionState = 'idle' | 'scanning' | 'connecting' | 'connected';
export class BleManager {
private static _i: BleManager;
static I() { return this._i ??= new BleManager(); }
private state: ConnectionState = 'idle';
private devices = new Map<string, Device>();
private gatt?: ble.GattClientDevice;
// 业务侧订阅
onScan?: (list: Device[]) => void;
onState?: (s: ConnectionState) => void;
onNotify?: (opt: { service: string; characteristic: string; value: Uint8Array }) => void;
onError?: (e: { tag: string; err: unknown }) => void;
private setState(s: ConnectionState) {
this.state = s;
this.onState?.(s);
}
/** 启动扫描 */
async startScan() {
try {
if (this.state === 'scanning') return;
this.devices.clear();
// 监听扫描事件(BLEDeviceFind 返回一组 ScanResult)
ble.on('BLEDeviceFind', (results: Array<ble.ScanResult>) => {
for (const it of results ?? []) {
const id = it.deviceId;
this.devices.set(id, {
deviceId: id,
name: it.deviceName,
rssi: it.rssi,
advData: it.advData
});
}
this.onScan?.(Array.from(this.devices.values()));
});
// 开始扫描(可按需传 filter)
await ble.startBLEScan(); // 有版本差异时可用 ble.startScan(filters)
this.setState('scanning');
console.info('[BLE] scanning started');
} catch (err) {
this.onError?.({ tag: 'startScan', err });
}
}
/** 停止扫描 */
async stopScan() {
try {
await ble.stopBLEScan();
ble.off('BLEDeviceFind'); // 取消订阅
this.setState('idle');
console.info('[BLE] scanning stopped');
} catch (err) {
this.onError?.({ tag: 'stopScan', err });
}
}
/** 连接设备 */
async connect(deviceId: string) {
try {
await this.stopScan().catch(() => {});
this.setState('connecting');
// 创建 GATT 客户端并连接
this.gatt = ble.createGattClientDevice(deviceId);
await this.gatt.connect(); // 有的版本是 Promise,也有 callback 形态
this.setState('connected');
console.info(`[BLE] connected: ${deviceId}`);
} catch (err) {
this.setState('idle');
this.onError?.({ tag: 'connect', err });
}
}
/** 读特征值 */
async read(serviceUuid: string, charUuid: string): Promise<Uint8Array | undefined> {
try {
if (!this.gatt) throw new Error('Gatt not ready');
const value: Uint8Array = await this.gatt.readCharacteristicValue({
serviceUuid, characteristicUuid: charUuid
} as any);
console.info(`[BLE] read ${serviceUuid}/${charUuid} -> ${value?.length ?? 0}B`);
return value;
} catch (err) {
this.onError?.({ tag: 'read', err });
}
}
/** 写特征值(支持 Write/Write NoRsp 两种策略按需配置) */
async write(serviceUuid: string, charUuid: string, payload: Uint8Array, noRsp = false) {
try {
if (!this.gatt) throw new Error('Gatt not ready');
await this.gatt.writeCharacteristicValue({
serviceUuid,
characteristicUuid: charUuid,
value: payload,
writeType: noRsp ? 1 : 0 // 示例:按实际枚举替换
} as any);
console.info(`[BLE] write ${serviceUuid}/${charUuid} ${payload.length}B`);
} catch (err) {
this.onError?.({ tag: 'write', err });
}
}
/** 订阅通知/取消订阅 */
async subscribe(serviceUuid: string, charUuid: string, enable: boolean) {
try {
if (!this.gatt) throw new Error('Gatt not ready');
await this.gatt.setCharacteristicChangeNotification({
serviceUuid, characteristicUuid: charUuid, enable: enable
} as any);
if (enable) {
this.gatt.on('characteristicChange', (res: any) => {
const value: Uint8Array = res?.characteristic?.value ?? res?.value;
this.onNotify?.({ service: serviceUuid, characteristic: charUuid, value });
});
} else {
this.gatt.off('characteristicChange');
}
console.info(`[BLE] notify ${enable ? 'ON' : 'OFF'} for ${charUuid}`);
} catch (err) {
this.onError?.({ tag: 'subscribe', err });
}
}
/** 断开并清理 */
async disconnect() {
try {
if (this.gatt) {
await this.gatt.disconnect();
this.gatt.close?.();
}
this.gatt = undefined;
this.setState('idle');
console.info('[BLE] disconnected');
} catch (err) {
this.onError?.({ tag: 'disconnect', err });
}
}
/** 设备列表与状态 */
getState() { return this.state; }
getDevices() { return Array.from(this.devices.values()); }
}

为什么这样写?

  • BLEDeviceFind 事件拿扫描结果;停止扫描记得 off
  • 连接走 createGattClientDevice(deviceId) + connect(),与官方用法一致。
  • 交互走 GATT:读/写/订阅(通知)。方法名/参数在不同版本会有差异,以 API 参考为准;思路是对的:定位 service/characteristic → 读写/订阅
  • 统一错误回调与关键日志,方便线下抓包与线上埋点排障;最佳实践强调“合理使用蓝牙与前后台策略”。

小贴士:你的外设如果用自定义 GATT,提前把 Service/Characteristic UUID 与数据协议约定清楚,客户端开发会顺很多。


把 Claude Code 用出生产力的 5 个招

Section titled “把 Claude Code 用出生产力的 5 个招”

1)让它看文档再回答:在问题里贴上 @harmony-os-docs/... 路径,要求它回答带出处。 2)先要“设计稿”:让 Claude 先给「目录结构 + 状态机 + 事件流 + 关键 API 对应表」。 3)针对版本差异:要求输出“API 版本矩阵”,比如 startBLEScan vs startScan,哪里不确定标注“需在本机 SDK 验证”。 4)自动生成单测/桩:让它产出“模拟回调/虚拟通知”的快速用例,覆盖断线重连/权限拒绝等场景。 5)日志协议:约定 [BLE] 前缀 + 关键字段,一键搜集;结合“合理蓝牙使用”最佳实践设置扫描窗口与频率。


  • 权限:蓝牙 & 发现 & 位置三件套,按 UX 规范做前台授权提示。
  • 扫描拿不到设备:确认外设在广播、App 权限 OK;有版本用 startBLEScan,有用 startScan(filters),事件是 BLEDeviceFind
  • 读写失败:多半是 UUID 不对、属性权限不匹配、或没建立通知/指示。复核 GATT 设计。
  • 耗电/后台:扫描要控时长与频率,遵循“合理使用蓝牙”最佳实践。

验收标准(Acceptance Criteria 对照)

Section titled “验收标准(Acceptance Criteria 对照)”
  • 启用 BLE订阅事件扫描并返回列表连接指定设备、对指定 Service/Characteristic 读/写订阅通知优雅断开
  • 每个操作有错误反馈与关键日志多设备状态可管理
  • 以上均可通过 BleManager 的 API 验收(示例代码已实现)。

进阶思路|把“蓝牙助手”做成可复用组件

Section titled “进阶思路|把“蓝牙助手”做成可复用组件”
  • 抽出 Hook/Store:比如 useBle() 暴露状态、列表、命令函数。
  • 设备协议适配层:把 UUID 与解析协议写在 parsers/xxx.ts
  • 问题库:把抓到的错误码、边界场景沉淀成单测。
  • 文档化:让 Claude 生成 README + 故障排查表(FAQ)与“真机调试 checklist”。

结语|让 AI 当“查手册的搭档”,你当架构师

Section titled “结语|让 AI 当“查手册的搭档”,你当架构师”

把文档喂给 Claude Code,明确规则,让它按文档写 ArkTS 代码。你负责把控架构边界、状态与调试。 一个下午,一个可跑的 BLE 管理器就能起飞。你觉得呢?评论区聊聊你的设备型号和踩过的坑,我帮你补参数与调试策略。

Codex 也有 Claude Code「斜杠命令」了:把常用提示存成 /命令,一键召唤

现在你可以把常用 Prompt 写成 Markdown,放进 ~/.codex/prompts/,在 Codex 里直接用 /命令名 调出。工作流立刻提速。社区已经确认可用,适用于 CLI,安装也很简单(npm i -g @openai/codexbrew install codex)。

小提醒:你提到的“暂不支持按目录来区分前缀”,这点在我的实测里也成立。当前是“文件名 = 命令名”,没有目录作用域的前缀隔离。


复用 prompt 才是真省时。把“代码审查”“单测生成”“发布清单”这些高频提示固化成 /review/tests/ship,每次一敲就来,不用再翻历史记录。Codex 团队最近也在持续升级 CLI/IDE 体验,势头很猛。

更妙的是,这套玩法和 Claude Code 的“自定义斜杠命令”思路一致——用 Markdown 存提示,斜杠唤起,简单高效。迁移成本几乎为零。


① 建目录 确保存在路径:~/.codex/prompts/。没有就创建。

② 写一个 Markdown 例如新建 review.md,内容随你:

“你是代码审查助理。给出结构化建议:安全、性能、复杂度、可读性、测试缺口。分点输出。”

③ 重新打开一次 Codex 会话 进 Codex 输入 /revi… 会自动补全成 /review,回车即用。社区反馈中也有相同使用方式与目录说明。

实操经验:

  • 命令名=文件名(去掉 .md)。
  • 避免与内置命令重名(例如 /init 这类词就别占)。
  • 新文件通常开启新会话后更稳妥地被识别。

  • 不支持目录前缀区分 也就是说 backend/review.mdfrontend/review.md 暂时做不到分别变成不同 /review。建议在文件名里加后缀:review-fe.mdreview-be.md

  • 参数/占位符能力有限 有用户反馈在自定义命令里使用 @ 一类参数占位并不稳定,遇到这种情况,改为在触发命令后二次补充具体上下文更可靠。

  • 命令命名要“短而记” 这是斜杠菜单的灵魂,和 VS Code/Cursor 的快捷动作类似,别起绕口的长名字。参考 Codex 官方与社区文章的最佳实践。


你可以立刻抄走的 5 个高能命令

Section titled “你可以立刻抄走的 5 个高能命令”
  • /review:代码审查清单(安全/性能/复杂度/可读性/测试)。

    你是高级代码审查助理。阅读给定代码或 diff,按以下结构输出改进建议:
    1. 摘要:一句话概括风险或总体质量。
    2. 安全(潜在注入/越界/竞态/权限/敏感信息泄漏)。
    3. 性能(热点循环/多余分配/IO/阻塞点/可缓存性)。
    4. 复杂度(函数过长/嵌套层级/拆分建议)。
    5. 可读性(命名/注释/一致性/死代码)。
    6. 测试缺口(未覆盖边界 / 错误路径 / 并发情形 / 极值数据)。
    7. 重构优先级(P1/P2/P3 + 理由)。
    输出使用 Markdown,必要时给出替代代码片段(仅最小可行 diff)。
    如果提交很小,自动合并以上条目,保持精简。
  • /tests:为当前文件生成“表驱动”或“参数化”单测,并补齐边界。

    你是测试生成助手。基于给定代码,生成表驱动/参数化测试:
    1. 测试目标函数/模块列表。
    2. 边界与异常枚举(空输入、极值、非法、并发、配置缺失、时区/编码)。
    3. 统一测试表结构(字段:case_id | input | setup/mocks | expected | notes)。
    4. 生成示例代码(首选表驱动;语言与现有项目风格保持一致)。
    5. 识别可 Mock 的外部依赖,建议隔离策略。
    6. 标记暂难覆盖的路径与原因。
    要求:简洁、可直接粘贴运行;优先提升覆盖决策复杂分支。
    若代码包含异步/并发逻辑,添加 race/timeout 相关案例。
  • /ship:预发/发布 Checklist(迁移、回滚预案、监控项、灰度范围)。

    生成本次发布的 Ship Checklist:
    1. 变更概述(一句话 + 影响面)。
    2. 依赖/前置(配置、环境变量、基础设施、版本兼容)。
    3. 数据/Schema 迁移顺序(含可逆性说明;标记不可回滚步骤)。
    4. 回滚方案(触发条件、指令/脚本、数据保护措施)。
    5. 灰度/逐步放量策略(批次比例、判定指标、推进条件)。
    6. 监控与告警(核心指标 + 阈值 + 检查窗口)。
    7. 风险列表(按概率*影响排序,含规避动作)。
    8. 验证清单(功能、性能、边界、合规)。
    9. 沟通同步(需要知情的团队/渠道 + 截止时间)。
    输出为 Markdown Checklist,方括号待勾选格式。
  • /perf-hunt:定位热点函数与慢 SQL 的排查步骤。

    你是性能分析助手。生成性能排查行动计划:
    1. 现象快照(延迟/吞吐/错误比变化,用占位符 <FILL> 标记需补充的实时数据)。
    2. 初步假设列表(CPU 绑定 / IO / 锁竞争 / GC / N+1 / 慢 SQL / 序列化开销)。
    3. 数据采集步骤:
    - 指标(CPU、内存、GC、线程、队列、连接池、磁盘、网络)。
    - 采集工具与命令(示例:perf / top / flamegraph / EXPLAIN ANALYZE)。
    4. 代码与查询定位:如何标记可疑函数 / 加采样 / 打点方案。
    5. 慢 SQL 诊断:EXPLAIN 字段重点、索引建议、可能的重写模式。
    6. 优化序列(按收益/成本排序,列出 P1/P2/P3)。
    7. 回归验证(对比基准、指标收敛条件)。
    输出结构化 Markdown。若缺关键输入,先列出"需补充信息"清单。
  • /changelog:把最近提交摘要成可发布的 CHANGELOG。

    你是发布日志助手。根据提供的 git 提交(或 diff 摘要)生成 CHANGELOG:
    1. 版本头部:版本号占位 + 日期占位。
    2. 分类(Feat | Fix | Perf | Refactor | Docs | Build | Chore | Test | Security)。
    3. 每条:简洁动词开头,避免冗余模块前缀(如已在分类层面体现)。
    4. 将 BREAKING CHANGE 单独置于顶部,含迁移指引。
    5. 关联 Issue/PR 使用 (#num) 格式,保持统一。
    6. 若提交噪声高,自动合并重复区域性更改并总结。
    7. 提供“可复制的 Markdown” 与 “一句话对外公告” 两个版本。
    若输入不足以分类,列出待补充项(需要提交范围 / 标签 / 模块说明)。

把上面每条写成一个 .md 放进 ~/.codex/prompts/,重启会话后就能 / 出来了。


如果你团队里 Codex + Claude Code 混用,统一把“可复用流程”沉淀成 Markdown Prompt,两边各自的斜杠命令都能吃,减少心智切换。Claude 社区也在推行这种以 markdown 为单位的复用方法。


把常用提示标准化、模块化,是 AI 编程从“灵感”走向“流程”的关键一步。 从今天开始,把你最常用的 3 个 Prompt 丢进 ~/.codex/prompts/,让双手记住 / 的快乐。

Vibe Coding:AI 时代送给 35 岁+架构师的最大福利

Linus 和 DHH 那样的天才,对 Vibe Coding 不屑一顾。 对普通架构师,却是千载难逢的红利期。 对完全没工程底子的普通人,反而可能是“拔苗助长”。

这两年你一定感受到风向变了。 AI 不再只是“补全几行代码”。 它开始把一整个工程流程串起来:从需求、设计、实现、测试、部署,到运维复盘。 这就是我说的 Vibe Coding——以架构为锚、以 Agent 为手、以闭环为目标的工程方式。

数据也在给我们信心:开发者对 AI 工具的使用/计划使用比例从 2024 年的 76% 升到 2025 年 84%,但信任度走低,这意味着“会用”和“用得对”是两件事。

结论先说Vibe Coding 是 35 岁+ 架构师的“时代红包”。 因为你有系统观、有工程经验、有业务上下文。 AI 正好把“重复、机械、易出错”的部分全数外包。 把你的“抽象与约束”放大 10 倍不夸张——主流研究也在提示生产率实打实提升,可达数十个百分点到成倍速度。


用一句话讲:让 AI 变成你的“工程小队”,你做总设计师,它做体力与连线。

一个可落地的 6 步闭环:

  1. 需求 → 场景用例:把业务目标拆成可验证的故事与约束。
  2. 架构 → 约束与接口:用 ADR/接口契约把边界钉死。
  3. 实现 → Agent 分工:代码生成、库检索、依赖安装、环境管理。
  4. 验证 → 测试优先:回归集与覆盖率门槛。
  5. 集成 → CI/CD:PR 机器人、自动审查、分阶部署。
  6. 观测 → 反馈回路:日志、指标、回滚、数据闭环。

这不是空谈。像 SWE-bench 等端到端基准,已经把“AI 能否真实修 Bug、过测试”拉到台面上评比;OpenHands、Refact 等系统在其中拿到过榜单前列,说明闭环式 AI 工程在快速逼近实用线。


为什么是 35 岁+ 架构师的最大福利?

Section titled “为什么是 35 岁+ 架构师的最大福利?”

你有三样稀缺品

  • 系统抽象力:知道“该做什么、不该做什么”。AI 需要人设“护栏”。
  • 工程节奏感:熟悉版本、依赖、环境、回归的坑。AI 最怕“无约束”。
  • 领域上下文:懂数据口径、合规、SLA。AI 不懂“潜规则”,你懂。

研究给了现实背书:企业落地生成式 AI 的开发环节,整体速度可以明显提升,在合适治理下“同等人月做更多活”。但治理与方法是关键,否则会掉进“快而错”的坑。

你的护城河,正是把 AI 的“快”塞进可预测的工程流程里。 这就是 Vibe Coding 的位置。


“天才不稀罕,普通人翻跟头”的真相

Section titled ““天才不稀罕,普通人翻跟头”的真相”

Linus 对 AI 的评价一针见血:“90% 是营销,10% 才是现实。” 但他也说过期待 AI 在找 Bug 等实用工具上的落地——这叫“高手的傲娇与理性”。

DHH 的态度也类似:**用 AI 起草、查 API 可以;真正的快乐在亲手编码。**天才黑客们不靠“自动化闭环”也能产出。

而普通人为什么容易“翻车”?

核心不在“会不会让模型写几行代码”,而在能不能把需求→设计→实现→验证→部署→观测跑成一个可重复的闭环。缺这个闭环,就会出现:看上去每天都在“用 AI 写代码”,但实际产出只是堆叠的半成品与 Bug 循环。

当前数据已经给出信号:2025 年开发者对 AI 的好感度下降、对其结果的“不信任”上升——说明把 AI 输出当“答案”而非“待验证工件”,极容易被带进歧途。

典型失败模式(外行 / 低经验程序员常见):

  1. 需求漂移:没有明确验收条件,提示词越写越长,结果越偏。
  2. 结构失控:目录、模块边界、环境变量、依赖版本无治理,几周后不可维护。
  3. 盲修 Bug:缺测试基线 → 只能肉眼点点点 → 改一处炸三处。
  4. 数据链断裂:不采集事件 / 指标,谈不上激活、留存、价值证据。
  5. 成本与风险不可见:模型调用无配额、无缓存、无审计,成本曲线和合规风险一起失控。
  6. 永远“快生成” → 从不“严回归”:没有最小回归集,交付质量全靠运气。
  7. 只会“提示词调优” → 不会“接口与约束”设计:Agent 产物缺一致性,复用失败。

根本差距在于:闭环思维依赖长期积累的抽象与约束能力,而这通常来自 5–10 年的:

  • 计算机基础(编译原理、操作系统、数据库范式、算法与数据结构)
  • 工程化实战(版本管理、依赖治理、性能与故障定位、CI/CD)
  • 架构取舍(一致性 vs. 吞吐、延迟 vs. 成本、通用性 vs. 简洁)
  • 工具肌肉记忆(IDE 深度使用、调试器 / Profiling、脚本化自动化)
  • 领域上下文(数据口径、合规、SLA、业务节奏)

当这些底座缺位时,“AI Coding / Vibe Coding”只会退化成:

拼提示词 + 复制片段 + 临时修补

也就很难跨过三个门槛:

  1. 从“功能凑齐”到“质量可回归”
  2. 从“有人试用”到“指标可验证”
  3. 从“技术 Demo”到“可收费的最小产品”

短期(未来 1–2 年)内,如果不了解上述基础与工程套路,AI Coding 更像玩具与幻觉放大器;对具备架构与闭环经验的人,它则是“抽象力 ×10 的杠杆”。想缩小差距,不是再多抄几个提示词,而是先补:约束 → 契约 → 测试 → 指标 → 运维 这一条最小骨干。

接下来你若真想补课,可以先自查:我是否已经具备“最小 Vibe 闭环 6 件套”? 需求验收|接口契约|测试基线|自动化集成|观测指标|回滚与成本护栏

缺哪一块,就从哪一块补起;否则所有“AI 赋能”都是伪加速。

所以要反过来: 用人的“结构化能力”,管住 AI 的“生成冲动”。 先约束,后生成;先测试,后集成;先回归,后上线。


2025–2026:个人/小团队架构师的 90 天 Vibe Coding 商业闭环打法

Section titled “2025–2026:个人/小团队架构师的 90 天 Vibe Coding 商业闭环打法”

面向:希望用最少人力,把 AI + 现成云服务/开源组件组合成“可验证、可收费、可迭代”小产品的架构师。

阶段 A(第 1–4 周):验证与地基

Section titled “阶段 A(第 1–4 周):验证与地基”
  • 问题验证:访谈 ≥10 个目标用户,沉淀 3 个高频痛点(痛点 = 频率 * 代价 * 现有替代劣势)。
  • 快速数据采集:用 Webhook / 简易表单 / 现成 Zapier / n8n 搭入口,开始收真实样本。
  • 技术底座:单一代码仓 + Mono Repo(App / Worker / Infra IaC),约定目录 + 环境变量清单。
  • 契约与质量:定义 1 份 OpenAPI / GraphQL 契约 + 最小回归测试(覆盖核心用例 ≥5 条)。
  • 指标对齐:激活(首次核心操作 < 60 秒)、留存(7 日回访率目标)、单位价值(节省时间或降低成本的量化)。
  • 收费假设:明确预期收费模型(Seat / 使用量 / 分级订阅)+ 价格锚点调研。

阶段 B(第 5–8 周):核心循环与 AI 赋能

Section titled “阶段 B(第 5–8 周):核心循环与 AI 赋能”
  • 核心闭环公式:获取 → 激活 → 价值实现 → 反馈数据回流(模型/规则/推荐)。
  • Agent 分工:
    • 生成类:文档 / 摘要 / 策略草稿
    • 检查类:合规 / 重复 / 风险标记
    • 编排类:多步骤(抓取→清洗→结构化→入库)
  • 可持续数据:统一 Schema(事件 + 业务 + 模型提示上下文),做最小质量标签集。
  • 迭代节奏:每周发布 1 次(Changelog + 指标对比),灰度用户 5~10 人。
  • 可信护栏:提示词版本化、输出校验(正则 / 规则 / 二次模型 Critic)、成本监控($ / 用户 / 周)。

阶段 C(第 9–12 周):收费与稳态

Section titled “阶段 C(第 9–12 周):收费与稳态”
  • 支付与权限:接入 Stripe / Paddle / 国内聚合支付;按 Plan 控制速率 / 功能开关。
  • 可观测:日志(结构化)+ 指标(核心漏斗 + 成本)+ 追踪(链路耗时)+ 异常告警。
  • 运营自动化:试用到期提醒、低使用率唤醒、周报(AI 生成使用洞察)。
  • 风险与合规:数据脱敏、模型调用白名单、依赖 SBOM 与版本基线。
  • 增长试验:A/B 不同 Onboarding(提示 / 示例数据)对激活率影响。
  • 扩展决策:当 单周新增付费用户增长放缓 且 核心留存达标 → 评估第二功能曲线或垂直细分包。

闭环判定标准(满足 ≥80% 即算跑通)

Section titled “闭环判定标准(满足 ≥80% 即算跑通)”
  1. 有真实用户(非内部) ≥ 10 人持续使用 4 周
  2. 单一核心价值指标(节省时间 / 自动化成功率 / 检测召回)曲线稳定向上
  3. 付费 / 意向转换(试用→付费)有 >10% 验证样本
  4. 关键路径全自动(无需人工干预)+ 异常可回滚
  5. 生成内容 ≥70% 通过自动质量校验,无高风险误用案例

机会清单(日常场景可落地的商业闭环 Mini/SaaS)

Section titled “机会清单(日常场景可落地的商业闭环 Mini/SaaS)”
场景价值焦点关键数据源卖点
智能会议纪要 + 行动追踪节省整理时间音频 / 日历 / 任务自动分配 & 进度回捞
个人知识库 / 团队“二脑”降低重复搜索笔记 / PDF / 邮件私有向量检索 + 权限
合同 / 条款差异审查减少疏漏风险合同文本条款分类 + 风险标注
小团队费用与订阅监控降低冗余开销邮箱账单 / API续费提醒 + 异常高额
报表 + 数据口径助手统一指标口径CSV / BI 查询口径解释 + 问答
轻量库存 + 自动补货减少缺货积压销售流水预测下单点
电商副业“上新 → 素材 → 上架”流水线缩短运营周期图片 / 标题一键多平台文案
本地媒体(播客/视频)摘要提升内容再利用音/视频转录结构化切片推送
个人财务 & 账单聚合资产可视化邮件 / OCR预算异常提醒
家庭能耗优化能源成本传感器 / 账单峰谷用电策略推荐
招聘 JD 智能匹配提高筛选效率JD / 简历技能差距图谱
轻量合规 / 安全日志巡检降低审计成本系统日志异常聚类 + 周报
AI 辅助周报 & OKR 回顾管理透明Issue / PR / 日历自动生成 + 风险提醒
私有 LLM 网关 + 审计降低模型调用成本Prompt / 结果配额 + 审计 + 缓存
订阅内容个性化摘要强化留存RSS / Newsletter个性标签 + 推送节奏

(任选 1–2 个,聚焦“明确价值 → 可度量 → 可收费”链路,不贪多。)


  • Acquisition:注册转化率 / 每用户获取成本(可先为 0)
  • Activation:首次核心动作 ≤ 60 秒完成率
  • Value:单用户周节省时间(自填 + 抽样验证)或 成功自动化任务数
  • Retention:D7 / D30 留存
  • Revenue(可选):试用→订阅转化率 / ARPU
  • Cost:模型调用成本 / 用户 / 周;错误率 / 超时率
  • 质量:自动生成结果人工抽检通过率;回归用例通过率

  • 前端:Next.js / SvelteKit + Tailwind
  • 后端:FastAPI / Bun + tRPC / GraphQL
  • 数据:Postgres + Redis(缓存 / 任务排队)+ DuckDB(临时分析)
  • 模型层:OpenAI / Claude / 本地(Ollama)+ 向量库(pgvector / Qdrant)
  • 编排:LangGraph / custom function router
  • 事件 & 任务:n8n / Temporal(可延后)
  • 监控:OpenTelemetry + Loki / Tempo / Prometheus
  • 支付 / 许可:Stripe / Lemon Squeezy
  • 观测面板:Metabase / Grafana + 自定义指标

  • 不提前做“复杂多租户”,先单租 + 权限隔离
  • 先规则 + 校验,再接模型自由生成
  • 模型调用加缓存(Prompt Hash + 语义相似度)
  • 周迭代 Changelog 写给用户,不写给自己
  • 坚持每周删 1 个低使用功能,保持核心清晰
  • 数据标注循环(少量高质量)比盲目扩量更优

  • 准确性/信任:使用/情绪升、信任下滑,要用测试与审查对冲。
  • 知识产权/合规:明确模型与数据的边界条款。
  • 质量与安全:引入安全基线、依赖白名单、SBOM、签名与供应链扫描。
  • 过度依赖:为关键链路保留人工接管回滚

硬件也在加速。H200 带来更高带宽与更大显存,重训练与推理吞吐都在上台阶。算力不再是中型团队的绝对壁垒。工程闭环谁先跑通,谁先收割。


选一个“高频+可量化节省+数据易获取”的场景,90 天内把“价值被验证 → 生成有护栏 → 指标可观测 → 现金流路径”四件事跑通,就是架构师的 Vibe Coding 商业闭环胜利。

你现在脑子里最接近上述标准的那个点子是什么?写成 5 行问题 → 用户 → 价值 → 数据 → 付费,再开干。

天才不需要 Vibe Coding 来证明自己。 普通架构师,却能用它把“经验 → 生产力”直接变现。 窗口期就在 2025–2026。 把你的方法论具象成“约束、测试、流程”,让 AI 去出手。 等同行还在和“信任危机”摔跤,你已经把闭环跑顺、账跑通。

你觉得呢?你打算用哪一个项目来跑你的第一个 Vibe 闭环?

AI加速浪潮中的黄金拐点:10%渗透率与产业版图重塑

  • 9.7% 企业AI渗透率=即将跨越“10%临界点”=由“尝试期”迈向“规模化扩张期”
  • 技术扩散遵循 S 曲线:10%→50% 区间往往对应投资与价值释放“黄金期”
  • AI 的扩散速度将快于以往主流技术(云 / 智能手机 / SaaS),原因包括:可复用基础模型、API 生态、云与算力即服务、Agent 化开发范式
  • 领先行业呈现出“数据密度高 + 决策频繁 + 自动化空间大”共性
  • AI 已从“效率工具”转向“战略中枢”与“增长杠杆”
  • 挑战集中在:算法偏见、数据合规、产品护城河重构、人才与技能再定义

高盛报告显示,至 2025 年 8 月,美国企业 AI 采纳率达 9.7%(逼近 10% 阈值)。这一节点历来对应“早期多数”即将批量入场的阶段:

  1. 跟随者风险感降低(案例验证 + 成本下降)
  2. 预算从“试点”转向“整合 / 再造流程”
  3. 组织结构与治理模型同步调整(AI PM / AI Ops / 数据风险内控)

经验法则:渗透率从 ~10% 向 50% 推进期间,复合增长最陡、估值弹性与产业红利同步放大。


杠杆机制结果
基础模型即服务API / 推理加速 / 多模态降低进入门槛
模块化 + 组合式开发RAG / Agent Framework / 工作流编排迭代周期压缩
数据反馈闭环使用→标注→优化→再部署性能自增强
成本拐点推理单 token 成本下降 + 专用加速硬件ROI 突破 CFO 审核线

4. 领先五大行业:渗透差异与动因

Section titled “4. 领先五大行业:渗透差异与动因”
行业驱动根因核心资产AI 价值落点加速触发因素
信息产业多模态内容密集内容库 / 分发网络个性化推荐、生成、智能运维模型多模态能力成熟
专业服务文档 + 知识密集合规语料 / 案例结构化知识语义检索、合同审阅、智能分析长尾任务自动化
金融与保险实时高频交易 / 风控交易流数据 / 标注欺诈样本风险识别、欺诈检测、理赔自动化低延迟推理稳定
教育服务学习行为可跟踪学习路径与题库数据自适应学习、智能辅导、教师工具多轮交互式 Agent
房地产与租赁资产决策链长房源/估值/租户画像智能估值、虚拟看房、运营协同3D/图像识别成熟

5.1 信息产业:从“内容生产”到“网络自愈”

Section titled “5.1 信息产业:从“内容生产”到“网络自愈””
  • 生成:音频 / 视频 / 文本多模态协同提升生产速率(例:AI 驱动音频生成加速周 → 分钟)
  • 分发:推荐系统由“用户相似”进化为“语义 / 向量空间意图匹配”
  • 运维:网络流量预测 + 异常检测 → 主动能耗调优、事件减少(>30%)

5.2 专业服务:增强型智能工作台

Section titled “5.2 专业服务:增强型智能工作台”
  • 法律:语义搜索 + 条款聚类 + 风险标注
  • 咨询 / 分析:开箱式领域模型缩短部署期(3–6 个月 → 数周)
  • 模式转变:计时收费向“洞察 / 结果导向”迁移

5.3 金融与保险:智能风控中枢化

Section titled “5.3 金融与保险:智能风控中枢化”
  • 交易监测:毫秒级异常评分
  • 理赔:CV + OCR + 规则编排 → 审核直通率提升
  • 价值:风险敞口下降 + 客户体验改善 + 交叉销售推荐

5.4 教育:个性化引擎与教师副驾

Section titled “5.4 教育:个性化引擎与教师副驾”
  • 学习路径:知识图谱 + 掌握度动态建模
  • 教师工具:批改 / 生成教案 / 干预建议
  • 护城河警示:纯“API 包装器”易被模型进步侵蚀 → 需构建专有数据 / 品牌 / 复合交互(人类导师 + AR/VR)

5.5 房地产与租赁:全链条智能化

Section titled “5.5 房地产与租赁:全链条智能化”
  • 估值:多变量时空模型提升精准度
  • 运营:AI 助手覆盖咨询、筛选、排期、维护请求
  • 战略信号:管理层“AI 原生化”=组织治理结构重塑起点

行业典型场景代表案例(示意)价值主轴
信息个性化推荐 / 内容生成 / 网络智能运维流媒体平台 / 通信设备商增长 + 体验 + 稳定性
专业服务法律审查 / 商业分析 / 智能问答法律检索平台 / 企业 AI 套件效率 + 质量
金融保险反欺诈 / 征信 / 理赔自动化银行风控平台 / 理赔引擎风险 + 成本
教育自适应学习 / AI 助教 / 行政自动化智能学习助手 / 教师工具个性化 + 教学效率
房地产智能估值 / 虚拟看房 / 租赁运营房产估值系统 / 租赁 AI 助手转化 + 运营规模化

7. 从“效率工具”到“战略中枢”

Section titled “7. 从“效率工具”到“战略中枢””

演进轨迹:

  1. 单点效率:文档生成 / 检索
  2. 流程穿透:审批 / 客服 / 运营链条协同
  3. Agent 化编排:自运行工作流(事件→调用→反馈)
  4. 决策增强:策略模拟 / 风险预测 / 资源调度
  5. 组织再造:角色设计(AI PM / 数据治理官 / Agent Ops)

风险表现治理策略
算法偏见不公平输出 / 决策倾斜数据审计 / 模型可解释 / 公平性指标
信息茧房推荐极化多样性约束 / 探索-利用平衡
数据与合规泄露 / 滥用 / 跨境传输风险分级权限 / 脱敏 / 审计日志
护城河侵蚀依赖公共模型专有数据 / 私有微调 / 嵌入业务流程
人才结构错配旧岗位技能迁移滞后再培训 / Copilot 内嵌式学习

阶段化落地:

  1. 评估:用例筛选(价值 vs. 可行性矩阵)
  2. 数据:治理 → 质量 → 标签 → 特征资产化
  3. 模型层:买 vs. 调 vs. 训(成本 / 差异化判定)
  4. 工程:向量检索 / 监控 / 回滚 / 成本观测
  5. 运营:人机协同 SOP + 风险兜底机制
  6. 渐进指标:P50 / P95 延迟、准确性、覆盖率、单位用例成本、自动化率

  • 核心增量能力:Prompt 结构化(角色 / 约束 / 反思)、Agent 工作流编排、数据判断与结果验证
  • 关注迁移领域:低创造密度 / 高重复认知劳动环节将被重塑
  • 职业建议:由“执行”向“问题定义 + 质量裁决 + 业务抽象”上移

9.7% 是一个信号:AI 不再是“探索性话题”,而是进入“结构性配置”。未来 12–24 个月内,主导权将由“会接 API”转向“会重构流程 + 驱动复利反馈”的组织与个人。
建议:

  • 企业:将 AI 纳入资本开支与战略规划主线
  • 产品:优先布局“数据闭环 + 复用底座 + 增强人效”场景
  • 个人:构建“人机协同”复合技能栈
    “加速的加速”已启动,最佳进入窗口正在关闭。

Codex 接入推荐的 10 个 MCP

把 MCP 服务器写进 ~/.codex/config.toml,Codex 就能“长出手脚”,会爬网、会看文档、会点浏览器、会改代码。本文给你可复制配置 + 使用场景 + 避坑提示


过去我们让模型写代码、查资料、跑任务,总感觉差点“动手能力”。MCP(Model Context Protocol)像 AI 的 USB-C,把外部工具以统一方式接进来,Codex 配好就能随叫随到。OpenAI 文档把 MCP比作“给 AI 的 USB-C 接口”,意思就是接上就能用。vs

微软的 Playwright MCP 也上了车:智能体能真开浏览器、看可达性树、验证变更,不必靠截图。vs


在 Codex CLI 里,MCP 服务器列表写在 mcp_servers(TOML)。参考结构:vs

~/.codex/config.toml
[mcp_servers.server-name]
command = "npx"
args = ["-y", "package-name@latest"]
# 可选:自定义每个服务器启动与列工具清单的等待时长(毫秒)
startup_timeout_ms = 20000

Codex 最近版本支持 per-server 启动超时startup_timeout_ms),官方发布笔记已合并此能力,社区 issue 也提到默认是 10 秒的超时场景,超时可调更稳。vs

小贴士:很多 MCP 客户端偏好 STDIO 传输;如果遇到只支持 SSE 的远程服务,用 mcp-proxy 做桥接就行(STDIO↔SSE 双向)。vs


抄作业清单:10 个高能 MCP 服务器

Section titled “抄作业清单:10 个高能 MCP 服务器”

每段都给你用途可复制配置要点。把块复制到 ~/.codex/config.toml 即可。环境变量记得换成自己的 Key。

1)Context7 —— 一键把最新库文档/示例塞进上下文

Section titled “1)Context7 —— 一键把最新库文档/示例塞进上下文”

用途:按你项目依赖版本,抓最新官方文档与示例,减少“旧接口/幻觉”。vs

[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
env = {}

要点:支持多客户端;文档里也给了 Cursor/VS Code/Zed/Claude 的配置样例。vs


2)DeepWiki —— 针对任意 GitHub 仓库的问答&结构化知识

Section titled “2)DeepWiki —— 针对任意 GitHub 仓库的问答&结构化知识”

用途:对 DeepWiki 索引过的开源仓库,直接问答、读 wiki 内容/结构。vs

[mcp_servers.mcp-deepwiki]
command = "npx"
args = ["-y", "mcp-deepwiki@latest"]
env = {}

要点:官方宣布免费、免登录;可提交你的仓库去索引。vs


3)Playwright —— 让 Codex 真开浏览器做 E2E 验证

Section titled “3)Playwright —— 让 Codex 真开浏览器做 E2E 验证”

用途:页面交互、可达性树、执行脚本、自动化测试。vs

[mcp_servers.playwright]
command = "npx"
args = ["@playwright/mcp@latest"]

要点:官方 npm 包与仓库维护活跃;适合回归验证可视化检查端到端测试。vs


4)Exa —— 实时 Web 搜索(结构化结果)

Section titled “4)Exa —— 实时 Web 搜索(结构化结果)”

用途:用 Exa Search API 做实时检索,返回结构化标题/URL/摘要,适合研究/资料搜集。vs

[mcp_servers.exa]
command = "npx"
args = ["-y", "exa-mcp-server"]
env = { "EXA_API_KEY" = "your_exa_key" }

要点:官方文档与 npm 包都在更新;支持远程托管版本。vs


5)Spec-Workflow —— 规格驱动开发的整套流水线

Section titled “5)Spec-Workflow —— 规格驱动开发的整套流水线”

用途:用规范化四阶段(需求→设计→任务→实现)推进项目,带实时仪表盘与 VSCode 扩展。vs

[mcp_servers.spec-workflow]
command = "npx"
args = ["-y", "@pimzino/spec-workflow-mcp@latest"]
env = {}

要点:官方示例含一键配置;适合多人协作、留痕审批。vs


6)Sequential-Thinking —— 结构化思考多路径推理

Section titled “6)Sequential-Thinking —— 结构化思考与多路径推理”

用途:把复杂问题切成步骤、可回溯、可分支,支持动态“想法”数量。vs

[mcp_servers.sequential-thinking]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-sequential-thinking"]

要点:官方/社区多实现,适合需要可解释链路的任务拆解。vs


7)Magic(21st.dev)—— 自然语言生成专业 UI 组件

Section titled “7)Magic(21st.dev)—— 自然语言生成专业 UI 组件”

用途:用一句话生成可投产的 React 组件,支持 Cursor/Windsurf/VSCode。vs

[mcp_servers.magic]
command = "npx"
args = ["@21st-dev/magic"]
env = { "TWENTYFIRST_API_KEY" = "your_21st_key" }

要点:官方安装指引与用法清晰;适合设计-开发一体化迭代。vs


8)Serena —— 代码语义检索+符号级编辑,像给模型装了 IDE

Section titled “8)Serena —— 代码语义检索+符号级编辑,像给模型装了 IDE”

用途:基于 LSP 的语义理解与符号级修改,跨多语言;特别适合大仓重构/精准改动。vs

[mcp_servers.serena]
command = "uvx"
args = ["--from", "git+https://github.com/oraios/serena", "serena", "start-mcp-server"]

要点:开源、活跃;版本更新日志强调稳定性与同步执行。vs


9)Morph Fast-Apply —— 超快精准改码(4k+ tokens/s 合并补丁)

Section titled “9)Morph Fast-Apply —— 超快精准改码(4k+ tokens/s 合并补丁)”

用途:把模型建议的“差异片段”快速、稳地打进真实文件,适合大规模重构/批量修复。vs

[mcp_servers.morphllm-fast-apply]
command = "npx"
args = ["@morph-llm/morph-fast-apply", "/home/"]
env = { "MORPH_API_KEY" = "your_morph_key", "ALL_TOOLS" = "true" }

要点:官方包说明支持选择仅 edit 或开放全文件系统工具。vs


10)Open-Web-Search —— 跨搜索引擎 Web 检索(支持 STDIO/SSE)

Section titled “10)Open-Web-Search —— 跨搜索引擎 Web 检索(支持 STDIO/SSE)”

用途:统一落地 DuckDuckGo/Bing/Brave 搜索,一键切换后端与传输模式。vs

[mcp_servers.open-websearch]
command = "npx"
args = ["-y", "open-websearch@latest"]
env = { "MODE" = "stdio", "DEFAULT_SEARCH_ENGINE" = "duckduckgo", "ALLOWED_SEARCH_ENGINES" = "duckduckgo,bing,brave" }

要点:仓库文档写清了 MODE=stdio|sse 与默认搜索引擎配置。vs


远程/SSE 服务器怎么接?(不会就用 mcp-proxy)

Section titled “远程/SSE 服务器怎么接?(不会就用 mcp-proxy)”

很多客户端偏好 STDIO,本地可执行没问题;远程 SSE 就需要桥接。最省事的方法是 mcp-proxy

  • 模式 A:STDIO → SSE(让只认 STDIO 的客户端连到远程 SSE 服务器)
  • 模式 B:SSE → STDIO(把本地 STDIO 服务器暴露成可远程连的 SSE)vs

一行命令示例 mcp-proxy --port=8080 -- npx @playwright/mcp@latest(把本地 STDIO 的 Playwright 暴露成 SSE)vs


  • 最小权限:给服务器只开必须的环境变量/目录访问。
  • 留意供应链:MCP 生态在快速扩张,研究指出存在“寄生式工具链攻击”的新风险面。优先用官方与可信来源,敏感数据分层隔离。vs

  • 工具启动超时:把 startup_timeout_ms 拉长,例如 20000。这个参数官方已支持,适合网络慢/冷启动慢的服务器。vs
  • SSE 连接不了:确认是否需要 mcp-proxy 或网关做转接。vs
  • Playwright 安装问题:遇到包版本异常,可换 @latest 或追踪 issue。vs

把 MCP 接进 Codex,就像给工程师配了一支多功能团队:有人负责查文档,有人跑浏览器,有人改代码,有人做流程。上面的 10 个块直接粘贴就能跑,再加上 mcp-proxy,本地/远程都不愁

**你会先接哪几个?打算用来解决什么痛点?**欢迎在评论区聊聊你的组合拳。

Codex 1UP 增强你的 Codex CLI 编程能力

本文面向正在用 Codex 写代码的你。用 10 分钟,把你的本地终端升级成“能读、能改、能跑”的 AI 结对程序员,再配上一套结构化重构与语义 Diff 的硬核工具链。


Codex 1UP 是一个一键增强包:给 OpenAI 的 Codex CLI 装上“外设”,把日常开发里最常用的查找、重构、对比、选择器都配齐,还顺手生成 AGENTS.md 规范和别名。它的定位很清晰——**让本地 Codex 更实战、更稳。**源仓库在 GitHub,近期活跃更新,支持 macOS / Linux,Windows 建议走 WSL。

它做了几件对程序员很“顶”的事:

  • 一键装好 Codex CLI(@openai/codex),终端里直接召唤 AI 读改跑你的项目。
  • 加装 ast-grep:按语法树做精准重构,不再被脆弱的纯文本 grep 绑架。
  • 加装 difftastic 语义 Diff:审查 AI 改动时更清楚、少噪声。找不到就回退到 delta。
  • 打包 fd / ripgrep / fzf / jq / yq:快速找文件、搜文本、模糊挑选、切 JSON/YAML。
  • 内置 AGENTS.md 模板与多种配置档(SAFE / DEFAULT / YOLO),开箱可用,还能按团队风格微调。

  • 要在大仓里安全重构:比如批量把老接口替换成新 SDK,ast-grep + Codex 能先“规划后执行”,再用 difftastic 审改。
  • 刚接手遗留项目rg 秒级摸清“这个函数被谁调”,fd 找文件比 find 快很多,fzf 交互选目标。
  • 注重合规和可控:选 SAFE/DEFAULT 模式,限制越权与外网访问;需要全速就切 YOLO,但要知道自己在做什么。
  • 团队要统一 AI 使用规范:AGENTS.md 一键模板,约定“先用 fd/rg,命中多再 fzf,结构化改动交给 ast-grep”。

  • 读改跑:Codex CLI 本地运行,可读文件、编辑与执行任务,支持用 ChatGPT 账号登录。
  • 结构化重构ast-grep -p 'old()' -r 'new()' 这类“像写代码一样写模式”。
  • 语义审改cxdiff 走 difftastic,让“真正的改动”一目了然。
  • 搜与选rg 查文本、fd 找文件、fzf 模糊挑选;jq/yq 处理 JSON/YAML 配置。

实战安装与过程解读(基于你的 dry-run)

Section titled “实战安装与过程解读(基于你的 dry-run)”

你提供的执行记录如下(dry-run:只打印将会发生的事,不改动系统):

git clone https://github.com/openai/codex-1up.git
cd codex-1up
./install.sh --dry-run
==> codex-1up installer
Log: /Users/vs/.codex-1up/install-20250910-174058.log
✔ Node.js present (v22.11.0)
Checking global npm packages (@openai/codex, @ast-grep/cli)
✔ @openai/codex up-to-date (0.31.0)
✔ @ast-grep/cli up-to-date (0.39.5)
✔ Global npm packages are up-to-date
✔ Codex CLI installed
✔ ast-grep installed
Detected package manager: brew
[dry-run] brew update
[dry-run] brew install fd ripgrep fzf jq yq difftastic
⚠ difftastic not found and Rust/cargo missing; falling back to git-delta
✔ rg ✓
✔ jq ✓
✔ ast-grep ✓
Configure git diff tools for better syntax-aware code diffs (recommended for developers)? [y/N] y
Configuring git difftool aliases
⚠ No difftastic or delta found; git diff will remain default
The following aliases will be added to /Users/vs/.zshrc:
cx='codex exec' # Run codex commands
cxdiff='git difftool -y' # Launch git difftool
fd='fdfind' # fd-find alias (if applicable)
Add these aliases to your shell config? [y/N] y
Updating shell rc: /Users/vs/.zshrc
[dry-run] append block to /Users/vs/.zshrc
Choose your codex-1up configuration profile:
1) SAFE - Most restrictive, asks for approval when commands fail
(Recommended for high-security environments)
2) DEFAULT - Balanced approach, asks for approval when needed
(Recommended for most users - good security/usability balance)
3) YOLO - Full access, never asks for approval
⚠️ WARNING: Allows codex full disk + network access!
⚠️ WARNING: Inherits ALL environment variables (including secrets)!
⚠️ Only use in trusted, sandboxed environments!
4) NO CHANGES - Do not create or modify ~/.codex/config.toml
(You can manage it yourself later)
Choose profile [1-4] (default: 2/DEFAULT): 2
⚠ ~/.codex/config.toml already exists
Overwrite with the 'default' template? (existing will be backed up) [y/N] y
[dry-run] cp /Users/vs/.codex/config.toml /Users/vs/.codex/config.toml.backup.20250910_174210
Backed up existing config to: /Users/vs/.codex/config.toml.backup.20250910_174210
Creating config using default profile
[dry-run] cp /Users/vs/WorkSpaces/VibeSparking/github/regenrek/codex-1up/templates/configs/codex-default.toml /Users/vs/.codex/config.toml
✔ Created ~/.codex/config.toml with default profile
See config options: https://github.com/openai/codex/blob/main/docs/config.md
Do you want to create a global AGENTS.md for personal guidance at ~/.codex/AGENTS.md?
1) default - Generic rubric (works for most repos)
2) typescript - TS/TSX-focused rubric with ast-grep examples
3) python - Python-focused rubric and tooling notes (ruff, mypy, pytest)
4) shell - Shell/Bash-focused rubric with shellcheck/shfmt/bats tips
5) NONE - Do not create ~/.codex/AGENTS.md
Choose template [1-5] (default: 5/NONE): 1
Writing global AGENTS.md to: /Users/vs/.codex/AGENTS.md (template: default)
[dry-run] cp /Users/vs/WorkSpaces/VibeSparking/github/regenrek/codex-1up/templates/agent-templates/AGENTS-default.md /Users/vs/.codex/AGENTS.md
✔ Wrote /Users/vs/.codex/AGENTS.md
VS Code extension id not provided. Use: --vscode <publisher.extension>
✔ All done. Open a new shell or 'source' your rc file to load aliases.
Next steps:
1) codex # sign in; then ask it to plan a refactor
2) ./bin/codex-1up agents --path /Users/vs/WorkSpaces/VibeSparking/github/regenrek/codex-1up # write a starter AGENTS.md to your repo
3) Review ~/.codex/config.toml (see: https://github.com/openai/codex/blob/main/docs/config.md)

逐行要点解释:

  • Node / 全局包检查:确认有 Node 22,并核对 @openai/codex@ast-grep/cli 的版本;你的机器均为最新。Codex CLI 是官方维护的本地编码 Agent。
  • 包管理器识别为 Homebrew:将安装 fd / ripgrep / fzf / jq / yq / difftastic。这几个工具分别负责“找文件、搜文本、模糊选择、JSON、YAML、语义 Diff”。
  • difftastic 提示:由于缺少 Rust/cargo,脚本计划回退到 git-delta;dry-run 模式下只打印不执行。difftastic 是“懂语法”的 Diff。
  • Git difftool 与别名cxdiffgit difftool -ycx 等于 codex exec。方便一键审改与批量跑命令。
  • 配置档选择:你选了 DEFAULT,即“默认平衡”——工作区可读改跑,对越权/外网会询问。更保守可选 SAFE,更解放可选 YOLO。
  • 自动备份并写入 ~/.codex/config.toml:用模板生成,随时可手改。官方文档也建议先跑 codex 登录 ChatGPT 账号。
  • 创建全局 ~/.codex/AGENTS.md:你选了 default 模板,给 Codex 一个“如何选工具”的行为指南。
  • Next steps:打开新终端或 source ~/.zshrc 生效别名 → 运行 codex 登录 → 在项目里写入仓库级 AGENTS.md。

小贴士:Windows 建议在 WSL 里跑 Linux 路线;官方对 Windows 支持仍以 WSL 为佳。


  1. 让 Codex 先“打谱”再动手 codex "Plan a refactor to replace axios with fetch; then apply and run tests"

  2. 结构化替换(TS 项目示例) ast-grep -p "oldApi($A)" -r "newApi($A)" src --lang ts

  3. 秒搜调用点 rg "useAuth(" -n / fd "auth*.ts" / git grep 之外更快更准。

  4. 审改用语义 Diff cxdiff 打开 difftastic(若已装),更聚焦“真实语义变化”。

  5. 批处理配置 jq '.scripts' package.json / yq '.services[].image' docker-compose.yml


  • YOLO 档真的很猛:默认放开读写与网络,别在含有敏感环境变量的生产机上用。
  • 大变更必审:用 cxdiff + 单元测试兜底,必要时拆小 PR。
  • AGENTS.md 要“贴合你们的 repo”:给出正例/反例,标注“何时用 ast-grep,何时只读规划”。

Codex 1UP = 本地 Codex + 结构化工具链。 写得更快,改得更稳,看得更清楚。 如果你正准备给团队引入 AI 结对,这套组合拳,值得今天就装上试试。

你觉得最离不开的是哪一个工具?有没有被 ast-grep 或 difftastic 救过命的故事?欢迎在评论区聊聊。

日本央行货币政策正常化:对美国国债、美元指数与美股的系统性影响深度解析

鉴于日本名义工资与实际工资的显著增长,日本央行(BOJ)最早在10月加息的概率上升。这不仅是日本国内经济周期的关键转折,更可能通过触发“日元利差交易”的系统性逆转,对全球市场产生深远影响。

核心结论:

  • 美国国债:日本投资者对美债需求减弱、对冲成本上升,叠加美债供给扩张,长期端收益率承受结构性上行压力。
  • 美元指数(DXY):日元在DXY中的较高权重使其升值对美元指数形成持续的结构性下行压力。
  • 美国股市:无风险利率上行压缩高成长科技股估值,板块或发生从“长久期成长”向“价值/防御”的轮动。

2. 日本货币政策正常化的核心驱动与内在逻辑

Section titled “2. 日本货币政策正常化的核心驱动与内在逻辑”

2.1 工资-通胀良性循环的形成与确认

Section titled “2.1 工资-通胀良性循环的形成与确认”
  • 过去通胀主要源于输入性因素(能源冲击、日元贬值),实际工资长期为负。
  • 2024年“春斗”名义工资涨幅约5.1%,为1991年以来新高,通胀驱动由外生转为内生(劳动力短缺、结构性转型)。
  • 工资-物价良性循环成为日本央行退出超宽松的关键依据。
  • 金融机构(如三菱日联金融集团)公开支持尽早加息,加息亦改善银行净息差与盈利。

2.2 从非常规到正常化:历史性转折

Section titled “2.2 从非常规到正常化:历史性转折”
  • 2024年3月,日本央行结束负利率与收益率曲线控制(YCC),并实施17年来首次加息(-0.1% → 0–0.1%)。
  • 此后因增长与外部不确定性,决策步调谨慎,阶段性维持利率不变。
  • 与美联储潜在降息周期“背离”,美日利差收窄成为全球资本联动的核心触发因素。

3. “日元利差交易”的逆转:全球资本流动的核心传导机制

Section titled “3. “日元利差交易”的逆转:全球资本流动的核心传导机制”

日元利差交易:借入低利率日元,兑换高收益货币并投向海外高收益资产。该交易持续时间长、体量庞大。

广义口径规模约为 $9.3 万亿美元,主要包含:

  • 日本居民对外证券投资:约 $5.4 万亿
  • 非居民借入日元投向日本股票:约 $2.1 万亿
  • 非居民借入日元投向海外证券:约 $1.8 万亿

当美日利差因日本加息收窄,利差交易吸引力下降并可能亏损,触发平仓:卖出海外资产(如美股、美债)并回兑日元。即使小比例回流,也可能对全球资产价格产生显著冲击。若美元走软与日本加息同步,逆转速度与规模或被放大。

4.1 美国国债:需求萎缩与收益率上行压力

Section titled “4.1 美国国债:需求萎缩与收益率上行压力”

传导路径:

  • 直接效应:日本利率上行提升JGB与国内资产吸引力,日本投资者减少海外配比(含美债)。
  • 间接效应:日元升值预期抬升汇率对冲成本,削弱持有美元资产的吸引力。

叠加美国财政供给扩张(债务与赤字上行),在需求侧(日本为美债最大海外持有者之一)走弱背景下,长期美债收益率面临持续的结构性上行。近期日债波动亦通过联动抬升欧美长端利率,提示跨市场传染效应。

4.2 美元指数(DXY):日元升值的结构性影响

Section titled “4.2 美元指数(DXY):日元升值的结构性影响”

DXY权重结构中,日元占比约13.6%(仅次于欧元的57.6%)。在其他条件不变时,日元升值将机械性压低DXY。若美联储转鸽,该压力或被放大。地缘风险上行时,日元避险属性可能带来非线性升值,增加DXY的不确定性。结构性看,日本政策正常化对DXY偏弱构成中长期因素。

DXY构成与权重:

货币权重 (%)
欧元 (EUR)57.6
日元 (JPY)13.6
英镑 (GBP)11.9
加元 (CAD)9.1
瑞典克朗 (SEK)4.2
瑞士法郎 (CHF)3.6

4.3 美国股市:估值重塑与板块轮动

Section titled “4.3 美国股市:估值重塑与板块轮动”

长期美债收益率为“全球资产定价之锚”(无风险折现率)。其上行将压缩以远期现金流为主的高成长标的估值。当前大型科技股前瞻估值偏高、对利率变动敏感,利差缓冲有限。

美国大型科技股估值利差分析:

指标当前值(约)意义
大型科技股前瞻市盈率约 29 倍处于阶段性高位
大型科技股盈利收益率(E/P)约 4.5%盈利/股价
10年期美债收益率约 4.2%无风险利率
利差约 0.3%缓冲极窄、估值对利率高度敏感

历史上,长端利率快速上行时,纳斯达克回撤较大;道琼斯等价值/防御板块相对抗跌甚至创新高,体现“长久期”向“短久期/价值”的轮动。不对称性方面,日股更受美股牵引,反向传导较弱。

  • 关键风险:美债长端收益率上行、DXY结构性下行、美股(尤其高成长科技)估值重塑。
  • 情景设定:
    • 基准:BOJ 10月加息,FED观望/转鸽 → 利差快速收敛,上述风险高强度兑现。
    • 延迟加息:BOJ推迟 → 压力阶段性缓解,结构性风险延后不消失。
    • 联储转鹰:FED因通胀转鹰 → 美元走强、利差扩大,日元套息逆转压力暂缓(与当前共识相悖)。
  • 美国国债:降低长久期敞口;用期货/期权对冲;关注曲线陡峭化。
  • 外汇与美元:布局DXY下行对冲;在USD/JPY考虑策略性空头以捕捉利差收敛。
  • 股票组合:战术性降配高估值、利率敏感的成长科技;增配价值与防御(必选消费、医疗、稳健分红);适度配置日本受益标的(大型银行、估值合理蓝筹)以分散风险。

Claude Code 母公司 Anthropic 完成100亿美元融资分析

Anthropic 是一家在人工智能领域异军突起的公司,其核心愿景是建立可信、可解释、可控制的 AI 系统,并以此引领一场“以安全为核心的竞赛”。与许多同行不同,Anthropic 的历史并非仅始于技术突破,而是源于一场深刻的哲学与治理分歧。自诞生之日起,它就将 AI 安全和伦理作为根本使命,并将其融入公司的法律架构、技术方法论与商业战略之中。

第一部分:安全为先的使命起源

Section titled “第一部分:安全为先的使命起源”

源于分歧的诞生:OpenAI 的哲学裂痕

Section titled “源于分歧的诞生:OpenAI 的哲学裂痕”

Anthropic 由一群前 OpenAI 员工于 2021 年创立,核心人物是兄妹二人——曾任 OpenAI 研究副总裁的 Dario Amodei 和曾任安全与政策副总裁的 Daniela Amodei。他们在 2020 年底与五名同事一同离开 OpenAI,原因在于对公司发展方向存在根本分歧。

Dario 等人对 OpenAI 在 2019 年从非营利组织转型为“利润上限”公司,以及随后与微软建立深度伙伴关系表示担忧。他们认为,这种转变使使命从“确保 AI 造福全人类”转向商业化与利润追求,将 AI 安全与伦理置于次要位置。Dario 曾表示,他们“能够预见人工智能即将呈指数级发展”,AI 公司亟需“制定一套价值观来约束这些强大的程序”。Anthropic 的成立,是对“为商业牺牲安全性”趋势的直接反制。

公益公司:将使命写入公司章程

Section titled “公益公司:将使命写入公司章程”

Anthropic 是特拉华州公益公司(Public Benefit Corporation, PBC)。这种法律结构要求在平衡股东利益的同时,将公益目标作为优先考量。对 Anthropic 而言,这一目标是开发“可靠、可解释和可控制的 AI 系统”。

为确保安全使命不受商业压力侵蚀,Anthropic 设立了“长期利益信托”(Long-Term Benefit Trust),该信托持有 T 类股票并可选举董事会大多数席位。此治理设计意在从法律层面将安全使命与股东财务利益适度隔离,回应传统公司治理在应对 AGI 潜在灾难性风险方面的局限。

以上举措从创始团队的离职到公司结构设计,构成了 Anthropic 的核心叙事:AI 的快速进步需要一种以使命为导向的治理范式。这既树立了“负责任”的品牌形象,也为担忧 AGI 商业化风险的人提供了可信选择。

Anthropic 的独特性不仅在治理结构,更在其技术方法论。其核心对齐路线旨在正面解决 AI 伦理对齐这一根本难题。

宪法式 AI(Constitutional AI):价值观的编码

Section titled “宪法式 AI(Constitutional AI):价值观的编码”

宪法式 AI(CAI)的目标是训练 AI 成为“有帮助、诚实且无害”。其核心是在训练中引入一份由人类撰写的“宪法”——一组原则,指导模型自我评估与修改输出。与传统在敏感问题上“回避/模糊”的处理不同,CAI 让模型在遵循原则的前提下更直接地回应请求,并在拒绝时说明理由。

训练过程分两阶段:监督学习阶段中,模型依据宪法原则批评并修正自身不当回答,生成更“无害”的数据集进行微调。

基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎

Section titled “基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎”

第二阶段为强化学习。Anthropic 采用 RLAIF(Reinforcement Learning from AI Feedback):模型生成两段回答,再按随机选定的宪法原则评估并选优;这些评估数据训练偏好模型,从而让最终策略更符合宪法原则。

相较常见的 RLHF,Anthropic 认为 RLAIF 更高效、更可扩展(减少人工标注依赖),且通过以自然语言编码目标提升可解释性与透明度,同时在一定程度上降低人类主观偏见的影响。批评者指出,宪法本身仍由人类撰写,难免主观性;同时减少人工干预也带来问责与监督的讨论。这种“自动化”与“人工控制”的张力,是理解 Anthropic 方法论的关键。

从研究到前沿模型:持续创新的时间线

Section titled “从研究到前沿模型:持续创新的时间线”

自 2023 年 3 月发布 Claude 1 以来,Anthropic 保持 4–8 个月一版的高速迭代:Claude 2(2023 年 7 月)、Claude 3 系列(2024 年 3 月)等,体现其既是研究机构,也是“前沿模型竞赛”的产品公司。

每代新模型在上下文、推理与多模态上持续跃迁:从 Claude 2 的 100K token 上下文,到 Claude 3 的 200K,再到 Claude 4 扩展推理模式接近 100 万 token。Claude 3 起支持图像与文本,多模态理解、编程、数学与逻辑推理能力显著增强。

自 Claude 3 系列起采用三档梯级架构:

  • Haiku:最快,面向实时与低延迟场景。
  • Sonnet:性能/速度平衡,覆盖通用任务。
  • Opus:旗舰级,面向复杂任务与高级推理。

2024 年 6 月的 Claude 3.5 Sonnet 在多项基准上超越更大的 Claude 3 Opus,显示出激进优化与产品化能力。

  • Artifacts:随 Claude 3.5 Sonnet 推出,可在专门窗口实时生成与预览代码、SVG、网站等。
  • Computer Use:在 3.5 Sonnet 测试版首发,AI 可操控虚拟电脑界面,模拟光标、点击、输入等跨应用多步骤任务。
  • Hybrid Dual-Mode Reasoning:在 Claude 3.7 与 Claude 4 中引入,可在快速响应与“扩展思考”之间动态切换,必要时调用工具(检索、执行代码)解决复杂问题。

这些能力推动 AI 从对话助理走向自主代理,也让 AGI 相关的现实风险更为迫近。

表 1:Claude AI 系列发布时间线与核心能力

Section titled “表 1:Claude AI 系列发布时间线与核心能力”
模型名称发布日期关键能力/特点
Claude 12023年3月初次发布,AI 助理原型
Claude 22023年7月行业领先的 100K token 上下文窗口
Claude 3 系列(Haiku, Sonnet, Opus)2024年3月梯级架构,文本+图像,多项基准表现卓越
Claude 3.5 Sonnet2024年6月编码与图表分析显著提升,推出 “Artifacts”
Claude 3.7 Sonnet2025年2月混合推理,支持快/深切换
Claude 4 系列(Sonnet 4, Opus 4)2025年5月100 万 token 上下文,改进 “Computer Use” 与 “Working Notes”

第四部分:安全 AI 的商业实践:成长、资本与伙伴关系

Section titled “第四部分:安全 AI 的商业实践:成长、资本与伙伴关系”

Anthropic 估值在 2024 年末超 610 亿美元,2025 年中 Series F 后达约 1830 亿美元。本轮由 ICONIQ 领投的 130 亿美元融资,强化其在企业、开发者与高端用户市场的领先地位。

营收同样快速:年化收入从 2025 年初约 10 亿美元增至同年 8 月超 50 亿美元。Claude Code 在三个月内实现超 5 亿美元年化收入,显示技术已有效转化为竞争力。

Anthropic 与亚马逊、谷歌建立深度合作:将 AWS 作为主要云供应商,并在 Amazon Bedrock 上提供模型;谷歌亦承诺数十亿美元投资与云基础设施支持。双方提供的 Trainium 与 TPU 等算力,使 Anthropic 能进行大规模前沿训练。

2025 年,CEO Dario Amodei 的内部备忘录被泄露,坦言公司为维持竞争力考虑向中东主权资本寻求投资,并承认其中“道德风险”。他写道:“我真的希望我们不必陷入这种境地,但我们身在其中。”以及“‘任何坏人都不应从我们的成功中受益’是一个很难经营企业的原则。”

这揭示了 Anthropic 的核心矛盾:在资本密集的竞赛中,即便具公益属性的治理结构,也难完全免于“竞相触底”的现实压力。

表 2:Anthropic 的主要融资轮次与估值

Section titled “表 2:Anthropic 的主要融资轮次与估值”
日期投资方投资金额估值
2022年4月FTX5.8 亿美元未公开
2023年9月/10月亚马逊、谷歌亚马逊承诺 40 亿美元(首轮 12.5 亿),谷歌承诺 20 亿美元(首轮 5 亿)超过 610 亿美元
2024年3月亚马逊27.5 亿美元(完成承诺的 40 亿)未公开
2024年11月亚马逊40 亿美元(总投资达 80 亿)未公开
2025年5月ICONIQ、Fidelity、Lightspeed 等130 亿美元1830 亿美元

第五部分:未来展望:AGI 与社会影响

Section titled “第五部分:未来展望:AGI 与社会影响”

Dario Amodei 对 AGI 的时间表极为激进,曾预测“奇点”可能在 2026 年到来。这种紧迫感解释了 Anthropic 对资本的巨大需求以及在竞争中的艰难权衡。

除以 CAI 设定技术基线外,Anthropic 也积极参与美国 AI 政策讨论。与 Palantir 的合作使 Claude 3/3.5 首次用于“机密环境”,既验证了能力与安全性,也触及其最具争议的应用场景之一。

Claude Code 等产品使软件工程的现代化与自动化成为现实,亦将推动医疗、教育、金融等行业变革。挑战仍在:如何让系统在复杂情境中稳健地理解并应用伦理原则,如何建立监管与问责框架、重塑公众信任。

Anthropic 以使命分歧为起点,通过公益公司与信托治理将安全嵌入企业 DNA;其快速迭代与商业增长表明,“安全承诺”可成为强有力的市场差异化。然而,泄露备忘录揭示了资本与理想之间的持续张力。

开发强大 AI 与确保其安全并非两条平行线,而是一枚硬币的两面。随着 Anthropic 沿这条复杂道路前行,它不仅将影响 AI 的技术版图,也迫使我们思考:在一个由 AI 驱动的世界里,我们愿为力量牺牲多少原则。

Claude Code vs Codex CLI 谁更适合你的日常开发?

Claude Code 更成熟,工程化能力强(子代理、Slash 命令、Hooks);Codex(GPT-5 High) 速度快、跟指令更贴、话少事快。两者并用,效率拉满。

这段时间,社区里关于 Codex CLIClaude Code 的讨论又热起来了。有人实测用 Cloudflare Worker + Telegram 做了个小工具:监控 Codex 的 GitHub Releases,有新版本就推送到 Telegram。结果很有意思——两家都能“跑通”,体验却各有侧重。

我把要点梳理成一篇「上手就能用」的对比,给你一个清晰的选择。


  • 工程化/扩展性:Claude Code 胜,子代理(Subagents)自定义 Slash 命令Hooks 三件套非常成熟。
  • 执行节奏/规划视图:Codex 的计划面板信息量大;Claude Code 现在默认只显示「当前任务」,流更顺。
  • 指令跟随:Codex(GPT-5 High)对目录结构等显式约束更“听话”;实测里它按 /src 多文件输出,Opus 则把代码塞进 worker.js
  • 抓数策略:同题不同解——Codex 直接用 Atom Feed;Claude Code 调用 GitHub API,都能跑通。
  • 可观测性:Codex 有 /status 看 Token、Ctrl+T 查会话记录(社区也在补齐转存/持久化)。
  • 速度&成本感知:实测单次任务 Token:GPT-5 ≈ 90k、Opus ≈ 50k;因为 GPT-5 每 Token 更便宜,整体成本未必更高——但以当次任务为样本,仅供参考
  • 文档生态:Claude Code 官方文档系统化,Codex 文档在加速完善中。

OpenAI 把 Codex 做成“跑遍全场”的开发代理:CLI、IDE 扩展、云端、GitHub 一体化;用 ChatGPT 账号打通状态,同一任务在本地与云端来回切。VS Code 扩展也上线了,不用折腾 API Key,直接配合云端沙箱执行。

这波更新节奏很快,各媒体与社区都在跟进评测。


正面刚:一次 Cloudflare Worker 实测的关键发现

Section titled “正面刚:一次 Cloudflare Worker 实测的关键发现”

1) 工程化能力:Claude Code 更像“可编排的开发平台”

Section titled “1) 工程化能力:Claude Code 更像“可编排的开发平台””
  • 子代理(Subagents):为任务拆角色、拆上下文,单独的系统提示 + 工具 + 独立上下文,适合「信息采集/方案评审/脚手架生成」分工流。
  • Slash 命令:通过 MCP 自动发现并暴露命令,项目里可以沉淀出“团队级”操作手册。
  • Hooks:在生命周期节点(会话开始/工具执行前后等)强制执行脚本,保证「Lint→Test→Commit」这类动作必达,不再靠模型“心情”。

一句话:要规模化和可控性,Claude Code 的“可编排”优势非常明显。

2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手”

Section titled “2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手””
  • Codex 简洁跟指令更紧,少寒暄,动作快。
  • Claude Code TUI 更成熟,Diff 视图清晰;默认只看“当前任务”,避免被长计划打断思路。
  • 一次测试里,Codex 虽选了“自动运行”,但权限确认仍较频繁;Claude Code 的交互更稳定。

3) 目录与架构遵从:Codex 更爱“照图施工”

Section titled “3) 目录与架构遵从:Codex 更爱“照图施工””

给了同样的项目模板与目录规范:

  • Codex(GPT-5 High)/src 多文件输出;
  • Claude(Opus 4.1) 聚合成单文件 worker.js。 如果你非常在意目录约束,Codex 的“教条性”反而是优点。

4) 数据抓取策略:两条路都通向罗马

Section titled “4) 数据抓取策略:两条路都通向罗马”
  • Codex:抓 Atom Feed,天然结构化。
  • Claude Code:打 GitHub API,字段齐全。 两者都能拿到写 Telegram 所需的信息,只是默认拼装的“信息密度”略有差异。
  • /status 查看 Token 消耗,Ctrl+T 看对话记录;社区还在提 PR 做会话转存与可追溯性增强。

选型建议:不同人群的“最优解”

Section titled “选型建议:不同人群的“最优解””

选 Codex

  • 跟指令更紧、少废话、默认就“能干活”;
  • VS Code 扩展+云沙箱一体化,上手快、环境干净。

你要「可编排、可治理、可沉淀」

Section titled “你要「可编排、可治理、可沉淀」”

选 Claude Code

  • 子代理拆工、Slash 命令沉淀 SOP、Hooks 固化流程;
  • 团队复用度高,适合复杂项目与多人协作。

两者一起上

  • Codex 快速拉起功能、验证方案;
  • Claude Code 固化流程、接驳 CI、沉淀团队命令库。

维度Codex(GPT-5 High)Claude Code(Opus 4.1 为例)
上手速度快、简洁、话少事快略慢,但交互细节更稳
指令遵从(更贴目录/约束)偶有“自作主张”整合输出
工程化CLI + IDE + 云一体,正在加速子代理 / Slash / Hooks 成熟完善
可观测性/statusCtrl+T、社区在完善Diff 视图成熟,任务聚焦更顺手
数据抓取偏向现成结构化源(如 Atom)偏向 API 直连,字段灵活
文档生态在完善,节奏加快体系化强、示例多
典型场景快速建功能、跑实验复杂项目、流程治理、团队沉淀

(表中对比基于公开文档与一次真实测试记录,细节随版本更新可能变化。)


实操建议:把它变成你的日常流水线

Section titled “实操建议:把它变成你的日常流水线”

工作流范式(可直接照抄思路)

  1. Codex 拉起最小可用版本(MVP),确认接口、目录、依赖。

  2. 切到 Claude Code

    • 设一个 “采集子代理” 专抓上下文(文档、API 约束、依赖风险)。
    • Slash 命令 固化常用动作(/lint、/test、/gen-release-notes)。
    • Hooks 强制 CI 前置动作(预提交校验、单测、语义化版本、变更集生成)。
  3. 回到 Codex 做小步快跑的功能追加与回归测试,/status 盯 token。

小贴士:Codex 的“少废话”很适合你边想边改;Claude 的“工程化”很适合你总结为团队资产。


这不是“谁替代谁”的故事。Codex 更像短跑健将Claude Code铁三全能。 用对场景,你会发现两者正好互补。

你更偏向哪种风格?你觉得呢?欢迎留言,我们把这份对比做成持续更新的「选型手册」。

微软CEO公开的 5条AI超级提示词, 能直接用在你日常工作里

这两天,Satya(微软CEO)在 X 上分享了他每天都在用的 5 条 GPT-5/Copilot 提示词。不是花哨的“黑魔法”,而是能立刻省时间的那种。多家媒体已经做了整理与转述。

很多同学问:“领导到底怎么用 AI?” 今天给你一个可直接复制的答案。 我把 Satya 的 5 条提示词,翻译成中文口语 + 可落地模板,并配上工程/产品日常场景

背景:这 5 条提示词来自 Satya 最近在 X 上的分享,媒体随后做了汇编;核心思路是借助 Copilot/GPT-5 从你的邮件、日历、会议纪要、聊天记录里提炼信息,替你做会前准备、项目盘点、节奏校准和复盘


  • 会前不再“尬聊”:预测对方关注点
  • 五分钟搞定“项目周报”
  • “我们按期能发吗?”用数据说话
  • 时间审计:我把时间花在哪了
  • 提前半步:为下一场会生成人类能用的简报
  • 风险与注意
  • 行动清单(可直接粘贴到 Copilot/GPT-5)

会前不再“尬聊”:预测对方关注点

Section titled “会前不再“尬聊”:预测对方关注点”

可用模板(直接贴给 Copilot/GPT-5)

「基于我和【某人/某团队】以往的邮件、会议和聊天,请列出下次会面最可能关注的 5 个议题,按重要度排序,并给出我该准备的 3 个要点潜在分歧。」

为什么好用 它会把历史沟通“捞一遍”,帮你扫盲 + 预判。避免开场那句“那我们今天聊啥”。媒体对这条的转述基本一致。

开发/产品场景

  • 你要跟数据平台组对齐接口变更。让 AI 先归纳对方过去最 care 的点(权限、延迟、SLA…),你准备更有靶心。

可用模板

「请从我最近的邮件、聊天、会议记录汇总,生成一份项目状态更新: 1)KPI & 里程碑;2)进展与胜负(赢了什么、输了什么);3)主要风险与应对;4)友商动态;5)棘手问题与建议回答。」

为什么好用 这相当于AI 做 PM 助理:它不是瞎编,而是从真实沟通里提炼。媒体报道中,这一条被反复引用。

开发/产品场景

  • 周会前 10 分钟把“版本燃尽阻塞点跨组依赖上线节奏”一并梳理出来,Leader 一眼能过。

“我们按期能发吗?”用数据说话

Section titled ““我们按期能发吗?”用数据说话”

可用模板

「请评估我们能否在【日期/月】按期发布【产品/版本】。基于工程进度、测试通过率、关键缺陷、灰度数据、合规/风控清单,给出风险列表按期概率的粗估(%),并列出必要的兜底方案。」

为什么好用 这不是“感觉学”,而是让 AI综合证据给你一个概率判断,同时逼出Plan B。媒体对这条也有明确提及。

开发/产品场景

  • 冲刺末周,用它给上线评审做底稿;把“阻塞 → 风险 → 处置人/时点”自动串起来。

可用模板

「查看我上个月的日历与邮件,把时间归入 5–7 个桶(如管理、招聘、写作、客户、深度工作等),估算各占比,并给出1 段简短总结可优化建议(例如减少空耗会议、把碎片沟通改为异步文档等)。」

为什么好用 你会直观看到“时间哪里被偷走了”。这是 Satya 自己强调的一条。

开发/产品场景

  • 技术总监一看数据就知道:代码评审占比太低、同步会太多、深度工作不足,立刻改排期和协作方式。

提前半步:为下一场会生成人类能用的简报

Section titled “提前半步:为下一场会生成人类能用的简报”

可用模板

「基于我与【参会对象】过往的讨论与选定邮件/文档,请为我生成下次会议的简报:会议目标、双方关切、方案选项、反对点与反驳、待决问题、会后 To-Do(含负责人/DDL)。」

为什么好用 会前 5 分钟读一页纸,你就不会“被动挨打”。媒体报道把它归在“会前准备/简报生成”的场景里。

开发/产品场景

  • 跟业务评审A/B 收益成本测算,AI 事先列好口径关键假设,你更稳。

  • 数据权限:让 Copilot/GPT-5访问你邮箱/日历/会议记录前,先确认公司政策与合规设置。
  • 来源可追溯:要求它列出处(邮件主题、会议名、时间戳),方便你抽样核对。
  • 别全信:AI 给的是摘要与猜测。重要决策要抽样复核
  • 产品入口:这些功能已集成在 Microsoft 365 Copilot + GPT-5 的生态里(Outlook、Teams、Word、Excel)。

1)会前预测

「基于我与【人/团队】历史互动,预测下次会面最可能的 5 个议题,并给我准备要点潜在分歧。」

2)项目周报

「整合近两周的邮件/会议/聊天,生成项目状态更新:KPI/里程碑、进展得失、风险与对策、友商动态、难题&参考回答。」

3)按期概率

「评估我们在【日期】前发布【版本】的按期概率(%),给出风险清单与兜底方案,并标注证据来源。」

4)时间审计

「统计上月我的时间分布到5–7 个桶及占比,附简短总结与优化建议(减少同步会、更多异步文档、集中深度工作时段等)。」

5)会前简报

「用历史讨论与选定邮件生成一页简报:目标、方案选项、反对点&反驳、待决问题、会后 To-Do(Owner/DDL)。」

以上 5 条来自 Satya 公开分享的要点汇编与媒体转引,我做了中文化与工程化改写,便于直接落地。原始报道与转述参见:Tech.co、Times of India、NDTV 等。


这不是更酷的提示词,而是更好的工作方式。 把 AI 当“第二大脑 + 智能秘书”,你会明显感觉:会更顺、报更全、节奏更稳

你觉得哪一条最想先试?留言告诉我

Warp Code 终端编码 Agent 实战

给爱折腾的工程师一句话总结:Warp Code 把“写提示→出代码→改→审→推到生产”塞进了一个终端里,而且支持多模型、代码评审面板、原生编辑器、代码库索引、MCP 外部上下文与规则化可控自治。


这波“Agent 写代码”卷到现在,大家卡的往往是最后一公里:代码“几乎能跑”,但还差一点点;审 diff、改两行、再回 prompt,很碎。Warp Code就是奔着这条“最后一公里”去的:把生成—审阅—微调—合入—上线做成一个流畅闭环,尽量不出终端。

官方称它在 Terminal-Bench #1SWE-bench Verified 75.8%(用 GPT-5 评分,2025-09-02),并强调“可操纵的 Agent(agent steering)”。这些指标与定位,核心都是为了把 prompt→prod 路径打通。


1)端到端闭环: 内置代码评审面板(可看 diff、让 Agent 按行修改、快速回滚)、原生文件编辑器(标签页、文件树、语法高亮、Vim 键位),尽量在一个界面把活干完。

2)强上下文: 代码库实时索引、多仓协同修改;支持把终端输出、文件、图片、URL直接当上下文“喂”给 Agent;还能用 MCP 接入 Linear/Figma/Slack/Sentry 等外部知识。

3)规则与项目化: 项目里用 WARP.md 统一规范(兼容 agents.md / claude.md / cursor 规则),再配 Global/Project RulesAgent Profiles,把团队约定“写死”,让 Agent 更听话。

4)多模型混用: 官方强调混合使用 OpenAI / Anthropic / Google 的最佳模型,并可自动择模。企业版还支持自带模型与数据隔离。

5)“建议式修复”: 编译错误或合并冲突时,Agent 会主动给修复 diff 建议;你可以一键接受、退回或继续对话细化。

6)透明与可控: 可设定自治级别(每步确认/全自动),遥测事件列表公开、内置 Network Log;一键关闭分析数据。


  • macOSbrew install --cask warp
  • Windowswinget install Warp.Warp(支持 x64/ARM64)
  • Linux:提供 .deb / .rpm / AppImage / Arch 包下载。

登录账号可选(支持 GitHub/Google)。不登录也能用;隐私与登录细节见文档。

在项目根目录打开 Warp,执行:

Terminal window
# 让 Warp 索引当前仓库,建立代码库上下文
/index
# 一键初始化项目配置,生成 WARP.md(兼容 agents.md / claude.md / cursor 规则)
/init

随后你就可以在统一输入框(Universal Input)里用自然语言发起任务,@ 文件/日志/URL/图片 作为上下文补充。

设置里新增 MCP Server(CLI 或 SSE),接入你常用的工作流系统(如 Linear/Slack 等),让 Agent 读得到任务、告警、设计稿。


推荐使用场景(结合日常开发)

Section titled “推荐使用场景(结合日常开发)”
  • 在服务目录里粘贴错误日志到输入框,/index 后让 Agent 定位并生成最小修复补丁。
  • 打开代码评审面板审 diff,必要时行内修改部分回滚,合入后让 Agent生成发布命令。
  • 写清目标、输入/输出、边界条件,附上相关文件接口文档 URL
  • Agent 生成代码→你在评审面板细化→原地编辑补齐细节→提交。
  • 把需求抽成 RulesWARP.md,下次同类任务一条指令即复用。
  • 让 Agent 基于全仓索引批量改名/抽象,并分步出 PR。
  • 通过 /diff-review 快速浏览修改,遇到冲突触发建议式修复
  • WARP.md + Project Rules 写清代码风格、提交规约、依赖开关。
  • 新人直接“对着项目提问”,Agent 会结合规则与索引少走弯路
  • 借助终端级集成,Agent 能响应系统事件、生成/解释命令、对日志做归因,再配上 MCP 读告警与工单。

  • **模型选择:**让 Warp Auto 自动择模,或手动切到你偏好的模型组合。
  • 会话续聊:CMD+Y 打开会话列表,继续在同一上下文里追问。
  • Slash 命令:/index 索引仓库、/init 初始化项目、/diff-review 打开评审;常用操作都能靠 Slash 调起。
  • 编辑器就地改:遇到 80% 正确的生成结果,直接在内置编辑器改完再让 Agent 补测试,比来回提示更快。
  • 隐私与遥测:一键禁用分析数据,事件清单公开且有 Network Log;企业版支持 BYO LLM、数据不进外部模型训练。

  • AI“几乎对”的尴尬依然存在,所以代码评审+行内改是常态化路径;这恰好是 Warp Code 的设计重点。
  • Agent 共享限制:会话共享时,Agent 交互块不一定可分享;注意团队协作时的可见性。

如果你已经在用 Claude Code、Cursor、Gemini CLI 等工具,Warp Code更像是把这些能力**“合在一个终端里”,补上评审与轻编辑**,再给到强上下文与团队规范闭环更短、可控更强、切换更少。值不值得?拉一个真实需求,试 1 天就知道。


  • macOSbrew install --cask warp
  • Windowswinget install Warp.Warp
  • Linux:到官网选择 .deb / .rpm / AppImage / Arch 对应架构下载。

CodeX 推荐 GPT-5 编码实践

这代 GPT-5 明显更“懂事”。更会遵命,更会规划,也更敢自己查和动手。 但也有个坑:你越含糊,它越容易“过度发挥”

帮你用最少的话,把 GPT-5 变成可靠的编程搭子:能按你的规矩来、在你的节奏里干活,还能少走弯路。要点都来自 OpenAI 的官方备忘 & 指南,我替你啃过了。


一、先把话说清楚:别给冲突的规则

Section titled “一、先把话说清楚:别给冲突的规则”

GPT-5 的指令跟随更强,但怕“相互打架”的要求。比如 .cursor/rulesAGENTS.md 里写了 A 规则,提示词又塞了相反的 B,模型会纠结,最后谁也没服务好。 动作要领:统一你的“项目规矩”,一句话说一件事,别多线并行喊口号。

小贴士:把“团队约定”集中放到一个文件,再用同一段“规矩”注入到每次对话。


二、选对“思考强度”:越难越要 High,越易就降档

Section titled “二、选对“思考强度”:越难越要 High,越易就降档”

GPT-5 默认会动脑,但可以调“reasoning_effort”。 难题就high,常规就medium/low,避免小题大做、工具乱跑。官方指南还引入了minimal reasoning,给追求速度的人用。

经验值:

  • 重构多文件/跨模块 → high。
  • 小改样式/简单脚本 → medium 或 low。

三、用“XML样式”的提示词,把规矩装进模块

Section titled “三、用“XML样式”的提示词,把规矩装进模块”

GPT-5 对结构化提示很吃这套。用类似 XML 的块把“原则、默认栈、目录规范”分开,模型更稳、更一致。

拿去即用:

<code_editing_rules>
<guiding_principles>
- 组件可复用、命名清晰、少魔法
</guiding_principles>
<frontend_stack_defaults>
- Framework: Next.js (TS)
- Styling: TailwindCSS
- UI: shadcn/ui
</frontend_stack_defaults>
</code_editing_rules>

一定要全面、一定要先把所有信息找全再回答” 这类语气,在 GPT-5 上可能适得其反:它会疯狂调用工具、狂搜上下文,既慢又贵。放松点,给边界就好。


零到一做新应用时,加一段自我规划与自检的流程,质量会明显更稳。让模型先想“评判标准”,再按标准迭代出方案。

模板片段:

<self_reflection>
- 先构造评审rubric(5-7项,不对外展示)
- 按rubric迭代方案与实现,不达标就重来
</self_reflection>

六、管住“过分热情”:设置工具预算 & 汇报频率

Section titled “六、管住“过分热情”:设置工具预算 & 汇报频率”

GPT-5 默认挺主动,会尽量把上下文搜全。你可以用提示词规定“热情度”

  • 什么时候并行搜索;
  • 最多能调几次工具;
  • 何时向人类汇报进度。

两种风格的现成块:

  • 省时保守型(低热情/低预算)
<context_gathering>
- 目标:尽快够用即停;最多2次工具调用
- 先宽后窄,一轮并行检索,命中70%即开干
</context_gathering>
  • 全力探索型(高热情/高坚持)
<persistence>
- 在问题完全解决前不要交还
- 不要反复问人类确认;自行假设并记录
</persistence>

另外,开启**“工具前言(tool preambles)”,让模型边做边说计划与进度**,用户视角更跟得上。


  • IDE 搭子:用 OpenAI 的 Codex IDE 扩展配合 GPT-5 做文件读改跑,一键并肩开发;官方页还给了 AGENTS.md 参考。
  • Responses API:多回合工具调用时,复用上一轮的推理上下文,更快更省。生产上建议用 Responses API 做智能编排。
  • 参数基线:在“可控成本”的前提下,默认 medium;遇到复杂重构再拉到high,对延迟敏感就试试minimal

八、团队协作的“统一口径”清单(可贴进你们仓库)

Section titled “八、团队协作的“统一口径”清单(可贴进你们仓库)”
<team_conventions>
- 目录结构、命名、提交信息规范(一处维护,多处复用)
- 组件/接口“完成定义”(含测试、文档、可回滚)
- 工具预算:常规≤2次;复杂任务≤6次
- 失败重试策略与回滚脚本
- 何时需要人类评审/手动确认
</team_conventions>

这段和第三节的 <code_editing_rules> 搭配使用,基本能把 GPT-5 的输出拉到“团队级一致性”。


一句话总结:规则要统一,思考要分档,过程要可控。 把这三件事做到位,GPT-5 就能在你的代码库里又快又稳地交付,而不是“聪明反被聪明误”。更多细节可对照官方备忘和指南,结合团队风格微调。

不想 Claude Code 把代码喂给 Anthropic?参考这份隐私设置清单

省流版个人账号(Free/Pro/Max)去 claude.ai → Settings → Data & Privacy 把“用于改进模型”关掉;组织/API 默认不用于训练,想再稳,给 Claude Code 配 零数据保留(ZDR)API 密钥;本机把 Statsig 遥测/Sentry 错误关了,不要用 /bug 上传会话,定期清理本地缓存。


Anthropic 正在调整消费者产品(含 Claude、Pro、Max,以及用这些账号登录的 Claude Code)的数据策略:你可以选择是否允许聊天与编码会话用于训练;选择 允许 时,保留期最高 5 年不允许 时,服务端最长保留 30 天用于运行与合规。这个选择只影响新建或恢复”的会话(不会倒查沉睡历史)。入口就在隐私设置里,可随时更改。

想了解行业解读与时限提醒,可看 The Verge / Tom’s Guide 的整理。


目标:不让你的聊天与代码被用于训练。

怎么做

  1. 打开:claude.ai → Settings → Data & Privacy
  2. 关闭 “Use my chats/coding sessions to improve Claude”(类似字样)。
  3. 记住:只对新建/恢复的会话生效;删除的对话不会被用于训练。你以后也能改回,但已用于训练的数据不可回退

保留规则(你关闭训练的情况下):后端存储最多 30 天


② 团队 / 企业 / API(商业产品)

Section titled “② 团队 / 企业 / API(商业产品)”

默认就更稳:Anthropic 的商业产品(Claude for Work、Anthropic API、Claude Gov 等)默认不会把你的输入/输出用于训练

更稳一层(推荐):签 Zero Data Retention(ZDR,零数据保留) 协议,并在 Claude Code 使用组织的 API Key。ZDR 目前只适用于 Anthropic API 及使用你组织 API Key 的产品(包括 Claude Code)

默认保留期:API 侧30 天自动删除(如未约定 ZDR,且法律/风控无额外要求)。


③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离”

Section titled “③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离””
  • AWS Bedrock:明确不会使用你的输入/输出来训练模型;且条款中对第三方模型(如 Anthropic)也有限定。
  • Google Vertex AI:有专门的数据治理与缓存说明,企业可按需配置以达成合规与最小化保留(注意阅读缓存与治理细节)。

这层“云侧隔离”适合强合规行业,把调度、日志、KMS 等都放在云账号里统一治理。


下面是“不外传”实践里最容易忽略的点,做完就安心许多。

A. 关遥测与错误上报(保留运行指标不上传)

Section titled “A. 关遥测与错误上报(保留运行指标不上传)”

官方文档支持的环境变量(跨平台示例):

Terminal window
# 关闭 Statsig 遥测(不含代码/文件路径)
export DISABLE_TELEMETRY=1
# 关闭 Sentry 错误上报
export DISABLE_ERROR_REPORTING=1
# 关闭 /bug 命令(不含代码/文件路径)
export DISABLE_BUG_COMMAND=1
# 关闭所有非必要的网络请求(更彻底)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

也可在 ~/.claude/settings.jsonenv 节点写入,项目里用 .claude/settings.local.json 覆盖。

"env": {
"DISABLE_TELEMETRY": "1",
"DISABLE_ERROR_REPORTING": "1",
"DISABLE_BUG_COMMAND": "1",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
}

B. 避免把完整会话打包上送(别随手 /bug

Section titled “B. 避免把完整会话打包上送(别随手 /bug)”
  • 官方建议/bug 提交问题;它会把上下文打包给 Anthropic 做诊断,所以涉及敏感仓库/代码时尽量别用
  • 社区有人汇总了可禁用 /bug 的环境变量DISABLE_BUG_COMMAND=1),属“非官方/可能变更”,仅供参考。
  • 官方说明:客户端本地可缓存会话最多 30 天以便恢复(可配置)。在敏感环境建议定期清理 ~/.claude/ 并把缓存期降到最低。
  • 社区曾反馈过 .claude.json 留存对话片段 的 issue,属于行为反馈而非官方承诺;建议把 .claude/ 納入你的安全基线与备份排除清单。

一套“万无一失”的组合拳(可直接抄)

Section titled “一套“万无一失”的组合拳(可直接抄)”

个人账号(必须做)

  1. 关“用于改进模型”。
  2. 定期清 ~/.claude/,误用 /bug 前先做脱敏
  3. 设:DISABLE_TELEMETRY=1DISABLE_ERROR_REPORTING=1

团队/企业(强烈推荐)

  1. 只用组织 API Key 登录 Claude Code;若可行,签 ZDR
  2. 服务器与 CI/CD 里统一注入禁传变量(上面 A)。
  3. 优先走 Bedrock/Vertex 通道,落地云侧 DLP/KMS 与访问审计。

  • 误区 1:“我把历史对话删了,就不会被训练。” → 删除后不会用于训练,但是否被训练过取决于你当时的设置;已训练不可逆

  • 误区 2:“我用 Claude Code 就等于企业级保护。” → 取决于你用的账号与密钥。个人账号登录的 Claude Code 仍受个人条款约束。

  • 误区 3:“走 Bedrock/Vertex 就什么都不用管了。” → 还需要你自己配置权限边界、密钥管理、日志策略与缓存治理。文档写得很清楚。


数据隐私从来不是“全开/全关”的开关,而是一整套习惯配置到位 + 工具到位 + 团队纪律到位。把上面的清单一次性走完,你的代码与对话基本就不会被分享给 Anthropic 用于训练,同时也能保住团队的合规边界

Claude Code 1.0.9x:权限规则、记忆编辑、Vertex 全局端点等多项优化

1.0.90~1.0.97 这几次快节奏小更新,把“权限规则校验、记忆编辑、Vertex 全局端点、代理兼容、热加载设置、待办清单”等痛点一口气打通,工程师的执行闭环更顺手了。


这两周 Claude Code 连着更了好几个小版本。看似“微调”,但都是日常高频操作:写权限规则不报错了、记忆文件能直接改、Vertex 走全局端点更稳、Windows 贴图更顺手、设置改了马上生效。下面用上手视角,带你一条条看影响最大的点,并给出可复制的用法。


  • 1.0.97/doctor 支持权限规则语法校验并给出修正建议。不再因为一个括号或通配写错卡半天。

  • 1.0.94

    • Vertex 支持全局端点(global endpoint),跨区可用性更高。
    • /memory 现在可以直接编辑所有导入的记忆文件,组织团队指令更轻松。
    • SDK 增加“自定义工具作为回调”能力(in-process MCP / 回调钩子),更易把你自己的工具链接入代理循环。
    • 新增 /todos,可列出当前任务清单,配合“计划—执行—核对”闭环更自然。
  • 1.0.93

    • Windows 新增 Alt + V 从剪贴板粘贴图片,记录报错截图、白板草图更快。
    • 支持 NO_PROXY 绕过指定主机/网段(结合 HTTP(S)_PROXY),企业网络/自建代理更好配。
  • 1.0.90设置文件改动立即生效,无需重启。注意:hooks 有例外(下节详解)。

版本节奏很快,确认自己已跟上:

Terminal window
npm i -g @anthropic-ai/claude-code
claude update
>
claude -v # 应显示 1.0.9x+

01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)

Section titled “01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)”

权限是 Claude Code 的刹车和油门。以前写 allow/deny 容易踩坑,现在直接:

/doctor

它会校验语法指出问题、并给出修正建议。例如你写了:

{
"permissions": {
"allow": ["Bash(git commit:*)", "Edit", "ReadFile:*"],
"deny": ["Bash(rm -rf *)"]
}
}

/doctor 能提示通配是否正确、是否被更高优先级规则覆盖等。这对团队统一“可执行命令白名单”很关键。

顺带补一嘴安全边界:社区曾反馈过deny 规则失效命令链路绕过等案例,写规则时别贪心,先最小权限再逐步放开。


02 团队记忆随手改:/memory 直接编辑(1.0.94)

Section titled “02 团队记忆随手改:/memory 直接编辑(1.0.94)”

现在 /memory 不止能看加载了哪些 CLAUDE.md,还能直接打开并编辑这些文件(包括用 @path/to/file 导入的多级记忆)。 好处有三: 1)一处修订,全队生效(把项目约定写进仓库)。 2)模块化(用 @导入 分层管理:架构、Git 规范、脚手架命令等)。 3)即时迭代(配合下节热加载)。 命令:

/memory # 查看&编辑项目/个人/组织级 CLAUDE.md

官方文档已把导入、多层查找、组织级路径等机制写清楚,建议直接落到你们仓库。


03 Vertex 全局端点:跨区更稳、更省心(1.0.94)

Section titled “03 Vertex 全局端点:跨区更稳、更省心(1.0.94)”

如果你走 Google Vertex AI 计费,现在可使用全局端点来动态路由到可用区,提升可用性与稳定性。这对“夜间长任务”“提审前 CI 一把过”很香。文档也明确了 Claude Code 支持 Vertex 的全球与区域端点

小贴士:不同区域可用的具体模型/别名不完全一致,切换时注意 endpoint 与 model 的映射关系。


04 设置热加载,但 Hooks 需确认(1.0.90)

Section titled “04 设置热加载,但 Hooks 需确认(1.0.90)”

1.0.90 起,多数设置改了就生效,不用重启会话。这让调参—再试的反馈环更快。 例外Hooks(执行前/后的自定义钩子)不会立刻替换。当前会话会使用启动时的快照,你修改后需要在 /hooks 菜单里review & apply。这个细节别忽略。


05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)

Section titled “05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)”
  • NO_PROXY 支持:在复杂内网/多跳代理下,给部分主机或网段直连,旁路掉全局代理。与 HTTP_PROXY/HTTPS_PROXY 一起配,常见的 CI、堡垒机场景更顺。
  • Windows Alt + V 贴图:终端里直接贴图,更适合把错误截图/表格塞进上下文,加速“定位—修复”。

06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)

Section titled “06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)”

TypeScript SDK 支持进程内 MCP 服务器自定义工具,你可以把“项目构建、Lint、发布前检查、灰度回滚”等动作,变成 Claude 的“工具调用”。配合回调/钩子,把成功/失败处理审计记录串起来。


1)体检权限

/doctor
/permissions # 查看当前 allow/deny
/config # 打开设置面板

2)记忆分层

CLAUDE.md
@docs/architecture.md
@docs/git.md
@~/.claude/personal-rules.md
/memory # 直接编辑以上文件

3)Vertex 全局端点(示意) 在环境中改为 global endpoint(按照 GCP 文档的格式与可用模型来):

具体端点与地区支持以官方文档为准。

4)企业代理

Terminal window
export HTTPS_PROXY=http://user:pass@proxy.example.com:8080
export NO_PROXY=localhost,127.0.0.1,.corp.example.com

这轮 1.0.9x 的更新没有喧嚣,但每一项都在“落地效率”上给你加分权限更稳、记忆更易管、网络更可用、设置更顺手、任务有清单。 如果你准备把“代理式开发”推向团队协作层面,先把权限与记忆这两件事做扎实,收益立竿见影。

你觉得这波更新里,哪一条最有用?留言区聊聊你的实践。

Claude Code CLI Config 配置攻略

想把 Claude Code 用出“顺手、稳、快”的感觉? 一份 claude config 命令速查 + 常用场景模板,拎包就走,团队立刻对齐。

这篇更偏实战手册:命令能直接贴,配置能直接用,出问题能迅速排。 关键出处都给你标好,方便你转给同事背书。


  • 省时:模型、权限、环境变量一次设好,少来回;
  • 省心:企业策略、项目配置、个人习惯各就各位,不打架;
  • 更安全:把敏感文件和危险命令彻底拉黑,避免“手滑”。

最常见就这几条(支持 -g/--global 设全局):

Terminal window
# 查看所有配置
claude config list
# 查某一项
claude config get <key>
# 改某一项
claude config set <key> <value>
# 往“列表型配置”追加/删除
claude config add <key> <value>
claude config remove <key> <value>
# 例如:设全局主题 & 项目默认模型
claude config set -g theme dark
claude config set model claude-sonnet-4-20250514

官方文档明确列了这些子命令与 -g/--global 的作用域说明。


二、配置文件放哪?谁说了算?

Section titled “二、配置文件放哪?谁说了算?”

层级与优先级(从高到低)

  1. 企业管控策略(不能被覆盖)
  • macOS:/Library/Application Support/ClaudeCode/managed-settings.json
  • Linux/WSL:/etc/claude-code/managed-settings.json
  • Windows:C:\ProgramData\ClaudeCode\managed-settings.json
  1. 命令行参数(本次会话临时覆盖)

  2. 项目本地:.claude/settings.local.json(个人、git 忽略)

  3. 项目共享:.claude/settings.json(团队共用)

  4. 用户全局:~/.claude/settings.json(个人默认)

官方“Settings”页把路径、优先级和样例都写清楚了,发给 IT 也能对上术语。


三、最常用的 8 个配置,一把梭

Section titled “三、最常用的 8 个配置,一把梭”
Terminal window
claude config set -g theme dark
claude config set -g verbose true

themeverbose 都是内置键;verbose 默认 false。


2) 默认模型(四种方式,按优先级生效)

Section titled “2) 默认模型(四种方式,按优先级生效)”
  • 启动参数:claude --model <alias|name>
  • 会话内:/model sonnet
  • 环境变量:export ANTHROPIC_MODEL=opus
  • 设置文件:"model": "claude-sonnet-4-20250514"

官方给了优先级顺序与示例,团队写在 README 里就不再争。

建议组合(稳妥实操):

Terminal window
# 全局默认:均衡
claude config set -g model claude-sonnet-4-20250514
# 某些项目需要极致表达
claude --model opus

3) 禁用非必要流量(隐私/内网一把过)

Section titled “3) 禁用非必要流量(隐私/内网一把过)”
Terminal window
# 三选一:settings.json、全局 env、临时 env
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
echo 'export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1' >> ~/.zshrc
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 claude

该变量等价于同时设置:DISABLE_AUTOUPDATERDISABLE_BUG_COMMANDDISABLE_ERROR_REPORTINGDISABLE_TELEMETRY


4) Git 提交别带“Co-authored-by Claude”

Section titled “4) Git 提交别带“Co-authored-by Claude””
Terminal window
claude config set includeCoAuthoredBy false

includeCoAuthoredBy 为官方支持键,默认 true。


5) 任务完成响铃(长任务不盯屏)

Section titled “5) 任务完成响铃(长任务不盯屏)”
Terminal window
claude config set -g preferredNotifChannel terminal_bell

官方“Terminal configuration”给的推荐写法,macOS 记得开启通知权限。


6) 项目权限白/黑名单(强烈建议配置)

Section titled “6) 项目权限白/黑名单(强烈建议配置)”
.claude/settings.json
{
"permissions": {
"allow": [
"Bash(npm run lint)",
"Bash(npm run test:*)",
"Read(~/.zshrc)"
],
"deny": [
"Bash(curl:*)",
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)"
]
}
}

permissions.allow/ask/deny 是新机制,替代旧的 ignorePatterns;适合彻底屏蔽 secrets。


7) 状态栏(Status Line):展示模型、分支、成本提示

Section titled “7) 状态栏(Status Line):展示模型、分支、成本提示”
.claude/settings.json
{ "statusLine": { "type": "command", "command": "~/.claude/statusline.sh" } }

也可直接 /statusline 让 Claude 生成脚本雏形。


8) 企业统一策略(安规落地必备)

Section titled “8) 企业统一策略(安规落地必备)”
  • 通过 managed-settings.json 强制禁用某些权限/工具;
  • 可关闭“绕过权限模式”,确保每次敏感动作都要确认:
{
"permissions": {
"defaultMode": "acceptEdits",
"disableBypassPermissionsMode": "disable"
}
}

企业策略路径与“权限管控”开关均在官方文档中有说明。


四、团队落地 5 个“即插即用”模板

Section titled “四、团队落地 5 个“即插即用”模板”
Terminal window
# 关闭非必要流量、错误上报、/bug、自动更新
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
claude config set -g theme dark
claude config set -g verbose true
claude config set -g model claude-sonnet-4-20250514

变量含义与效果见“Environment variables”表。


模板 B|前端项目(安全白名单)

Section titled “模板 B|前端项目(安全白名单)”
Terminal window
claude config add permissions.allow "Bash(npm run dev)"
claude config add permissions.allow "Bash(npm run test:*)"
claude config add permissions.deny "Read(./.env)"
claude config add permissions.deny "Read(./secrets/**)"

允许测试相关命令,拒绝读取 .envsecrets


Terminal window
# 默认均衡;出现复杂需求临时切 Opus
claude config set -g model claude-sonnet-4-20250514
# 会话内再 /model opus

模型切换优先级按“Model configuration”执行,CLI > 环境变量 > 设置文件。


Terminal window
claude config set -g preferredNotifChannel terminal_bell

终端响铃更适合 CI/脚手架生成场景。


Terminal window
claude config set includeCoAuthoredBy false

团队不想在提交信息里出现 AI 共著时,统一关掉。


五、你可能会踩的坑(顺手化解)

Section titled “五、你可能会踩的坑(顺手化解)”
  • “为啥我改了还不生效?” 看层级。企业策略 > CLI 参数 > 项目 local > 项目共享 > 用户。很多时候被上层覆盖了。

  • “我想一次性关掉所有遥测/上报/自动更新”CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,一键覆盖四个子开关。

  • “设置文件写哪里?” 用户:~/.claude/settings.json;项目:.claude/settings(.local).json;企业:系统级 managed-settings.json 三平台路径如前。


把 Claude Code 配好,其实就三步:

先定“谁说了算”(层级与策略) → 再定“能干啥”(权限白/黑名单) → 最后定“怎么干”(模型、输出、通知、环境变量)。

配好了,它就像你团队的“AI 开发内功心法”: 更稳、更快、更安全。一套模板,千人千面,落地不费劲。


  • 官方 CLI & 配置:Settings、Model、Terminal、StatusLine、CLI Reference(命令/旗标)
  • 环境变量含义(含一键禁用非必要流量的等价项)

  • 你的团队更需要“严格权限”还是“高速迭代”?怎么在两个目标间做平衡?
  • 你会把哪 3 条配置写进企业策略,强制全员?你觉得呢?

英伟达2026财年第一、第二季度财报综合分析报告:英伟达如何将H20“危机”变为战略“转机”

一、执行摘要:在逆境中强劲反弹,战略远见持续兑现

Section titled “一、执行摘要:在逆境中强劲反弹,战略远见持续兑现”

英伟达2026财年第一和第二季度的财报,共同描绘了一幅在复杂地缘政治环境中,企业如何通过核心技术优势和审慎财务管理,成功应对挑战并持续兑现长期战略的图景。第一季度财报侧重于因美国出口管制政策而导致的短期财务冲击,如H20芯片相关的巨额费用和预期的营收损失。然而,第二季度财报不仅在关键财务指标上超出市场预期,更以其强劲的表现,有力地印证了第一季度所阐述的战略方向与基本面韧性。

本报告的分析显示,表面上第二季度总营收增速有所放缓,但这并非需求疲软的信号,而是高基数效应的体现,且伴随着新一代Blackwell平台的强劲产能爬坡和需求爆发。更为重要的是,公司在第二季度成功地将H20芯片的影响从第一季度的财务“硬伤”转化为战略性应对与“去风险化”的积极范例。第二季度的业绩强力印证了公司核心增长引擎(Blackwell平台)的强劲需求、持续优化毛利率的能力,以及通过大规模资本回报计划所展现出的对未来现金流的高度信心。

二、综合财务业绩对比分析:数字背后的强劲增长与结构性变化

Section titled “二、综合财务业绩对比分析:数字背后的强劲增长与结构性变化”

总览:超预期但增速放缓的第二季度

Section titled “总览:超预期但增速放缓的第二季度”

英伟达在2026财年第二季度实现了令人瞩目的财务表现。总营收达到467.43亿美元,超出了公司在第一季度给出的450亿美元的指引约17亿美元。这一营收数据较上一季度增长6%,相比去年同期更是激增56%。与此同时,净利润也实现了大幅跃升,从第一季度的187.75亿美元增至264.22亿美元,环比增长41%,同比增长高达59%。

然而,值得深入分析的是,尽管第二季度业绩出色,但其56%的同比增速相比第一季度69%的增速有所放缓。部分媒体将此解读为自2023年中期以来最慢的季度增速。这种分析若脱离背景则缺乏全面性。事实上,56%的同比增速在任何行业都堪称非凡,而其增速的“放缓”主要源于其同期基数的不断抬高,是持续高增长的必然结果,并非市场需求开始走弱的信号。

此外,尽管总营收超预期,但财报发布后英伟达股价却出现小幅下跌。这种现象并非偶然,它揭示了公司目前面临的**“超高预期陷阱”**。部分市场分析师此前对英伟达数据中心业务的营收预期更高,尽管该部门实际营收达到411亿美元,但仍略低于约2.4亿美元的最高预期。这表明,市场对英伟达的价值判断已超越了总营收,而是集中在其核心的AI数据中心业务。即使是微小的业绩偏差,也足以引发市场的过度反应,这正是英伟达作为全球AI风向标所必须承受的特殊市场压力。

对两个季度各业务板块营收的细致对比,进一步揭示了英伟达增长的结构性变化。

  • 数据中心业务:该业务依旧是绝对的增长核心。第一季度营收为391亿美元,同比增长73%;第二季度进一步增长至411亿美元,同比增长56%。第二季度,数据中心业务占总营收的比重保持在88%左右,与第一季度基本持平,这凸显了其作为公司增长引擎的绝对主导地位。

  • 游戏业务:与数据中心的强劲表现相得益彰的是,英伟达的传统核心业务——游戏板块,也在第二季度实现了显著复苏。其营收达到43亿美元,环比增长14%,同比增长49%。这一强劲增长的主要驱动力在于Blackwell-powered NVIDIA GeForce RTX™ 5060的推出,该产品迅速成为英伟达有史以来爬坡最快的x60级别GPU。这表明,除了AI芯片之外,公司的传统业务依然具备强大的市场活力。

  • 专业可视化与汽车业务:这两个板块虽然体量较小,但均实现了稳健增长。专业可视化业务营收从第一季度的5.09亿美元增至第二季度的6.01亿美元,环比增长18%。汽车业务营收从第一季度的5.67亿美元增至第二季度的5.86亿美元,同比增长69%。这些增长数据印证了公司在核心AI硬件之外,正通过其全栈平台(如NVIDIA DRIVE™ AV、NVIDIA Omniverse™)在垂直应用领域持续扩张影响力。

表A-1:英伟达2026财年第一、第二季度关键财务指标对比

Section titled “表A-1:英伟达2026财年第一、第二季度关键财务指标对比”
指标 (单位: 百万美元)Q1 FY26 (GAAP)Q1 FY26 (Non-GAAP)Q2 FY26 (GAAP)Q2 FY26 (Non-GAAP)Q/Q 变化 (Non-GAAP)
营收44,06244,06246,74346,7436%
毛利率60.5%61.0%72.4%72.7%11.7 pts
运营费用5,0303,5835,4133,7956%
运营收入21,63823,27528,44030,16530%
净利润18,77519,89426,42225,78330%
摊薄每股收益$0.76$0.81$1.08$1.0530%

注:非GAAP毛利率排除H20相关费用影响,Q1为71.3%,Q2为72.3%。

表A-2:英伟达2026财年第一、第二季度分业务营收对比

Section titled “表A-2:英伟达2026财年第一、第二季度分业务营收对比”
业务板块Q1 FY26 营收 (百万美元)Q2 FY26 营收 (百万美元)Q/Q 变化Y/Y 变化 (Q1)Y/Y 变化 (Q2)
数据中心39,10041,1005%73%56%
游戏未直接提供4,30014%N/A49%
专业可视化50960118%19%32%
汽车与机器人5675863%72%69%

三、财报表述的“差异与冲突”:地缘政治影响的演变与管理

Section titled “三、财报表述的“差异与冲突”:地缘政治影响的演变与管理”

第一季度的直接冲击与财务代价

Section titled “第一季度的直接冲击与财务代价”

英伟达在2026财年第一季度遭遇了自中美芯片出口管制升级以来的首次直接财务冲击。该财报明确披露,受新的出口许可要求影响,公司因需求下降产生了45亿美元的H20芯片相关费用,这笔费用主要源于过剩的库存和采购义务。此外,由于政策限制,公司未能交付价值25亿美元的H20订单。这些负面影响在当季毛利率上得到了直接体现,GAAP毛利率跌至60.5%,非GAAP毛利率为61.0%,均显著低于正常水平。在第一季度财报中,公司对第二季度的营收指引为450亿美元,并特别指出这已反映了因出口管制导致的约80亿美元H20营收损失。

第二季度的战略性应对与“去风险化”

Section titled “第二季度的战略性应对与“去风险化””

第二季度财报的表述看似与第一季度存在冲突,实则反映了公司对地缘政治风险管理策略的演进和成功执行。该季度财报明确指出,“未向中国客户销售任何H20芯片”。这似乎延续了第一季度的困境,然而,财报同时披露了公司通过向中国以外的客户销售不受限制的H20产品,获得了约6.5亿美元的营收,并因此释放了此前计提的1.8亿美元库存准备金。

将这两个季度的财报表述联系起来分析,这并非数据上的矛盾,而是一个从**“被迫承受”到“主动管理”**的清晰过程。第一季度计提的45亿美元费用代表了这批库存和采购义务在当时被视作沉重的财务负担,甚至可能成为“死资产”。然而,在第二季度,公司成功地找到了新的市场渠道,将部分此前被视为难以销售的库存成功变现。这一行动不仅带来了新的营收,更通过冲回部分准备金,对当季的毛利率产生了积极贡献。这表明,英伟达并非被动地承受外部冲击,而是积极调整供应链和销售策略,成功地将不利影响降到最低,并有效盘活了资产。

此外,关于“与美国政府达成15%营收分成协议”的报道,虽然公司首席财务官柯蕾特·克雷斯(Colette Kress)在财报电话会议中明确表示该协议尚未最终敲定,且美国政府尚未发布相关法规,但这一表述本身就暗示了公司在幕后进行了大量的斡旋。与此同时,公司在第二季度对第三季度的展望中,仍**“未假定任何对华H20出货”**。这种在财务预测上的审慎态度,表明公司管理层将该协议可能带来的收益视为潜在利好而非既定事实,避免了因政策变动带来的二次财务风险。

四、第二季度如何“印证”第一季度的战略:从蓝图到现实

Section titled “四、第二季度如何“印证”第一季度的战略:从蓝图到现实”

数据中心业务的长期战略:Blackwell平台的崛起

Section titled “数据中心业务的长期战略:Blackwell平台的崛起”

第一季度财报中,英伟达的CEO黄仁勋明确表达了对新一代Blackwell平台的乐观预期,并称其为“世界期待的AI平台”。这一表述在当时更多是战略性的蓝图与愿景。然而,第二季度财报用具体而强有力的数据,将这一蓝图转变为可验证的现实。

数据显示,英伟达Blackwell数据中心营收在第二季度实现了17%的环比增长。这一显著增长不仅是数字上的成功,更是公司核心技术优势和市场领导地位的直接体现。黄仁勋将Blackwell的需求描述为“非凡”,这直接印证了第一季度对该平台前景的展望。Blackwell平台的强劲产能爬坡和市场需求,正在有效地对冲H20出口限制所带来的营收缺口,成为公司整体增长的新驱动力。

财务稳健性与股东回报承诺:从目标到行动

Section titled “财务稳健性与股东回报承诺:从目标到行动”

英伟达在第一季度财报中,在宣布H20相关费用造成的毛利率大幅下降时,同时提出了一个明确的财务目标:公司正在努力,力争在今年年底将非GAAP毛利率提升至“70%区间中位水平”。第二季度的业绩几乎完美地印证了这一承诺。

通过对数据的深入分析可以发现,第二季度非GAAP毛利率达到72.7%,相比第一季度排除H20费用影响后的71.3%,又有了1个百分点的提升。毛利率的显著回升并非偶然,它由两个关键因素驱动:首先,是前文提到的H20库存释放带来的1.8亿美元准备金冲回,这在短期内对毛利率产生了正面贡献;其次,也是更重要的长期驱动力,是Blackwell等新一代高利润率产品的出货量持续增加。这证明了公司毛利率的短期波动主要源于一次性事件(H20费用),其核心盈利能力和长期优化策略(通过高附加值产品)是稳健且正在持续兑现的。

在股东回报方面,第一季度财报中已透露了公司持续的股票回购和现金分红策略。第二季度,这一承诺得到了前所未有的加强。公司董事会批准了额外600亿美元的股票回购授权。这一“史无前例”的巨额授权是管理层对公司未来基本面和现金流前景高度信心的最直接信号,它印证了公司在第一季度财报中所传递出的财务稳健性,并向市场传递了强烈的看多信号,进一步夯实了公司的财务护城河。

五、展望与风险:面向未来的挑战与机遇

Section titled “五、展望与风险:面向未来的挑战与机遇”

英伟达对2026财年第三季度的指引,进一步巩固了其强劲的增长势头。公司预计营收将达到540亿美元,上下浮动2%,这一指引比第二季度的实际营收高出约73亿美元。同时,GAAP和非GAAP毛利率预计分别为73.3%和73.5%。这一乐观指引有力地证明了Blackwell平台的产能爬坡仍在加速,市场需求依然旺盛,并且公司对其核心盈利能力的持续改善充满信心。

然而,尽管业绩出色,潜在的挑战与风险依然存在。地缘政治的不确定性是其首要风险,出口管制政策的任何变动都可能直接影响未来的营收。此外,来自Groq等新兴AI芯片公司的竞争正在加剧,尽管英伟达目前仍占据绝对领导地位,但其必须持续创新以维持优势。

与此同时,公司也拥有广阔的机遇。通过在AI、机器人、物理AI和数字孪生等新领域的持续布局,英伟达正努力将自身从单一的AI硬件供应商,扩展为一个横跨多个高增长领域的全栈平台提供商。这些战略性举措将为其未来的多元化增长提供坚实的基础。

六、结论:在挑战中前行的AI巨头

Section titled “六、结论:在挑战中前行的AI巨头”

英伟达2026财年第一和第二季度的财报,共同构成了一个在外部冲击下,从财务阵痛到战略反击的完整叙事。第一季度的财报诚实地揭示了地缘政治风险所带来的直接财务成本,而第二季度则以实际行动证明了其强大的管理智慧和业务韧性。

第二季度的业绩有力地印证了第一季度所传递的核心信息:尽管面临短期逆风,但英伟达的长期增长引擎(以Blackwell为代表的数据中心业务)依然动力十足,其财务基本面和对未来的信心都坚如磐石。公司成功地将挑战转化为机遇,通过精细的资产管理和高价值产品的强劲出货,不仅实现了财务指标的显著反弹,更向市场传递了其在复杂环境中依然能够掌控全局、持续领先的清晰信号。英伟达正稳步从一个AI芯片制造商,迈向一个主导AI、机器人和元宇宙未来的全栈计算巨头。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

2025年Q2财报解析:AI浪潮下财报靓丽的公司

财报季不仅仅是一串数字,它更是一场企业战略与市场情绪的博弈,是理解经济大势和公司的最佳窗口。一个“靓丽的财报”不仅仅是营收或利润超出预期,它必须包含以下几个核心要素:

  • 指标超越度:核心财务指标(营收、每股收益)超出市场预期的幅度。
  • 增长质量:增长是否由可持续的核心业务驱动,而非一次性因素。
  • 盈利能力与效率:考察公司在扩大规模的同时,是否提升了利润率和现金流。
  • 未来指引与管理层信心:管理层对未来业绩的展望,上调指引通常是信心的最强信号。
  • 战略执行力:财报数据是否验证了公司长期战略的有效性。

我们将依次深入剖析AI浪潮下10家公司的财报,揭示数据背后的逻辑和商业真相。

一、逐一盘点:12家公司2025年Q2财报深度解析

Section titled “一、逐一盘点:12家公司2025年Q2财报深度解析”

本部分将对每一家公司进行详尽的财务与战略分析,并嵌入所有相关的研究素材,进行事实核查与批判性解读。

1.1 Palantir(PLTR):从政府服务到商业化引擎的成功转型

Section titled “1.1 Palantir(PLTR):从政府服务到商业化引擎的成功转型”

Palantir的Q2财报无疑是本季度的明星。公司营收达到了10.04亿美元,远超市场预期的9.4亿美元,同比增长高达48%。更令人瞩目的是其盈利能力的显著飞跃,GAAP净利润为3.27亿美元,调整后每股收益(Adj. EPS)为0.16美元,也远超预期的0.139美元。

这些亮眼数字的核心驱动力,是其美国商业部门的爆发性增长。该部门营收同比增长93%,环比增长20%,成为公司增长的最强引擎。这一成绩完美地印证了公司从历史依赖政府合同,向商业化转型的成功。商业客户的增长提供了更可预测的收入流和长期的战略合作关系,这从高达22.7亿美元的新增合同总价值(TCV)中可见一斑,同比增长达140%。

然而,在数据的光鲜背后,也存在需要冷静分析的潜在风险。尽管政府业务仍有36%的稳健增长,但多家媒体指出,美国国防部已开始将价值高达2亿美元的合同授予OpenAI、Anthropic等新兴竞争对手。这表明,政府的AI采购正从单一供应商模式转向多元化。这虽然不会立即影响Palantir的业绩,但可能对其长期稳定的政府收入构成新的挑战。

展望未来,管理层表现出极高信心,上调了Q3营收指引(同比增长50%)和全年营收指引(同比增长45%)。这种坚定的态度是其财报最值得称道的部分。然而,我们也必须意识到,高达663倍的市盈率(TTM P/E)和252倍的前瞻市盈率(Forward P/E)意味着市场已将这种高增长几乎全部计入股价。这种高估值需要公司持续拿出超出预期的表现来支撑。

1.2 Microsoft(MSFT):AI时代的“公用事业”巨头

Section titled “1.2 Microsoft(MSFT):AI时代的“公用事业”巨头”

微软本季度的财报同样令人惊叹。其日历Q2(即财年Q4)营收达到764亿美元,同比增长18%,超出分析师预期的13.9%。稀释后每股收益(EPS)为3.65美元,同比增长24%,超出预期的3.35美元。

这份财报最核心的亮点是其“云+AI”战略的全面胜利。作为公司增长引擎的Azure云服务,营收同比增长高达39%。这不仅是简单的财务数字,它代表了微软商业模式的根本性转变。该公司不再仅仅是提供软件,而是正在成为全球企业不可或缺的AI算力与数据基础设施提供商。为了满足AI的巨大需求,微软在2025财年承诺投入800亿美元用于数据中心建设。这笔巨额资本开支并非简单的费用,而是公司对未来增长的战略性押注,旨在解决“需求大于供给”的瓶颈,并进一步巩固其在AI时代的领导地位。

从战略角度看,这份财报证明了微软已成功从一个传统的软件巨头,转变为一个拥有“AI基础设施公用事业”属性的公司。这种深度嵌入全球经济数字化动脉的商业模式,使其能够持续获得市场的信任和高估值。管理层对未来的展望也极为乐观,预测2026财年Q1的智能云业务营收将继续高速增长,增幅预计高达37%。

1.3 Astera Labs(ALAB):AI浪潮下的“卖铲人”与隐忧

Section titled “1.3 Astera Labs(ALAB):AI浪潮下的“卖铲人”与隐忧”

Astera Labs的财报数据堪称“惊艳”。公司营收达到1.919亿美元,同比增长150%,环比增长20%。更重要的是,公司首次实现了GAAP运营利润3980万美元和净利润5120万美元,标志着其商业模式从高速扩张转向健康盈利。作为数据中心互联芯片的供应商,Astera Labs的业绩直接受益于大型超大规模云服务商对AI计算基础设施的资本开支加速。

然而,在这些完美数据背后,我们必须看到其业务模式的固有脆弱性。多家信源都明确指出,公司的最大风险在于“客户集中度”,即其业务高度依赖于“少数几家大型超大规模客户”。尽管当下增长迅猛,但从商业逻辑来看,任何一家大客户都力图避免对单一供应商的过度依赖。一旦这些客户的采购策略发生变化,或自行研发替代产品,都可能对Astera Labs的业务构成重大威胁。因此,尽管财报数据完美,但这种“寡头依赖”的风险是投资者需要警惕的。

1.4 Meta(META):用广告帝国的现金流押注AI未来

Section titled “1.4 Meta(META):用广告帝国的现金流押注AI未来”

Meta的Q2财报显示,其核心广告业务在AI的驱动下依然充满活力。营收达到475.2亿美元,同比增长22%,每股收益(EPS)为7.14美元,同比增长38%。这一增长主要归功于广告展示量和平均广告价格的双重提升,这背后正是其AI算法在精准投放和用户推荐上的持续优化。

这份财报最引人注目的并非核心业务的强劲,而是它所揭示的公司战略。财报清晰地将公司分为两大板块:营收高达471.46亿美元的“应用家族”(Family of Apps)和仅有3.7亿美元营收的“现实实验室”(Reality Labs)。应用家族是公司的“现金奶牛”,它产生了足够的现金流,支撑公司在AI和元宇宙领域的巨额投资。公司预计2025年资本开支将达到660亿至720亿美元,主要用于AI基础设施建设。从商业逻辑来看,这种投资是高风险的,但也是其赢得未来的必要代价。这份财报的完美之处在于,它用实际数据证明了“现金奶牛”依然健康,这让管理层在追求宏大愿景时拥有了更大的战略自由。

1.5 Nebius AI(NBIS):AI基础设施赛道上的黑马

Section titled “1.5 Nebius AI(NBIS):AI基础设施赛道上的黑马”

作为一家在AI基础设施领域迅速崛起的公司,Nebius AI在Q2交出了一份令人瞠目结舌的财报。其营收达到了1.051亿美元,同比爆炸式增长625%,环比增长106%。此外,其核心业务提前实现了调整后的EBITDA为正,这证明了其商业模式的健康和高效率。

Nebius的成功并非偶然。作为一家提供从GPU算力、云平台到开发者工具的“全栈”服务的公司,其垂直整合模式使其能够快速响应市场对AI算力的巨大需求。公司正在积极获取超过1GW的电力供应以支持未来的数据中心扩张,表明其管理层对未来增长的预期非常激进。值得注意的是,Nebius Group N.V.的前身是Yandex N.V.,并于2024年8月更名。这个历史背景是理解其技术积累和商业模式的关键。

1.6 Robinhood(HOOD):从“网红”到金融平台的重生

Section titled “1.6 Robinhood(HOOD):从“网红”到金融平台的重生”

Robinhood的Q2财报证明,它已不再是那个单纯依赖短期市场情绪的“meme股”交易应用。公司营收达到9.89亿美元,同比增长45%,净利润为3.86亿美元,同比增长105%。

这些数据背后是其业务模式的成功转型。公司不再依赖单一的交易收入,其交易收入(期权、加密货币、股票)同比增长65%,而净利息收入也稳健增长了25%。此外,其付费客户(Robinhood Gold subscribers)增长76%至350万,总资产(AUM)达到2790亿美元,同比增长99%。这些数据都表明,Robinhood正在成功向一个拥有多元化、可持续收入来源的综合金融服务平台转型。

这份财报最完美的之处在于,它用数据证明了公司正在从一个“工具”转变为一个“平台”。这种战略的成功源于公司对用户需求的深刻洞察:年轻一代投资者需要的不仅仅是一个简单的交易工具,而是一个能满足其全方位金融需求的“一站式”平台。

1.7 Iren(IREN):大胆的战略转型与超高速增长

Section titled “1.7 Iren(IREN):大胆的战略转型与超高速增长”

Iren本季度的财报(指其财年Q4)是一份充满戏剧性的答卷。尽管提供的资料存在时间上的混淆(财年Q2和财年Q4),但最新数据(财年Q4,2025年8月公布)显示,其营收高达1.873亿美元,同比增长228%,净利润为1.769亿美元,成功实现了扭亏为盈。

Iren的完美财报源于其大胆而成功的战略转型。公司不再局限于比特币挖矿,而是成功利用其电力、基础设施优势,将业务扩展到高增长的AI数据中心领域。成为NVIDIA的“优选合作伙伴”,并获得其Blackwell GPU,为其AI业务的快速扩张提供了强大的技术和硬件支持。这种转型使其从一个受比特币价格高度波动的行业,转向一个更稳定、需求更强劲的领域。从商业逻辑看,Iren的旧业务(比特币挖矿)和新业务(AI数据中心)的核心资产都是“电力”和“大规模数据中心基础设施”,财报用数据证明了公司能够将这一核心资产平滑地转向AI算力服务,是一种对核心资源的战略性重新配置。

1.8 SoFi(SOFI):金融服务“飞轮”的完美验证

Section titled “1.8 SoFi(SOFI):金融服务“飞轮”的完美验证”

SoFi在Q2财报中交出了一份完美的答卷。公司营收达到8.55亿美元,同比增长43%。更重要的是,公司实现了连续第七个季度的GAAP盈利,净利润为9730万美元,同比暴增459%。

这份财报最核心的亮点是其独特的“金融服务生产力飞轮”(FSPL)战略得到了完美验证。公司会员数和产品数均同比增长34%。其中,35%的新产品由现有会员开通,这有力地证明了其“一站式商店”模式的有效性。通过提供全方位的金融产品(存款、贷款、投资等),SoFi有效提升了单个客户的价值(ARPU)和产品渗透率。费用收入(Fee-based Revenue)的暴增(同比增长72%)也提升了公司的收入质量,降低了其对利息收入的依赖。管理层对未来的展望同样充满信心,上调了2025年全年财务指引。

1.9 Axon(AXON):从“硬件销售”到“SaaS订阅”的华丽转身

Section titled “1.9 Axon(AXON):从“硬件销售”到“SaaS订阅”的华丽转身”

Axon的财报完美地诠释了“护城河”的构建逻辑。公司营收达到6.69亿美元,同比增长33%,这已是连续第六个季度增长超过30%。这份财报最亮眼的数字,是其年化经常性收入(ARR)同比增长39%至12亿美元,以及高达107亿美元的未来合同预订额。这个天文数字意味着公司在未来十年内有稳定、可预测的收入来源,这种确定性是极少数公司能够提供的,也正是其高估值的核心依据。

财报数据表明,Axon的真正价值并非来自电击枪或摄像头这些硬件销售,而是基于这些硬件构建的数字证据管理、VR训练等软件生态系统。这种“硬件为入口,软件为核心”的商业模式,使得客户(主要是执法机构)一旦进入其生态,就会产生极高的转换成本和持续的、可预测的订阅收入。公司上调了2025年全年营收和调整后EBITDA指引,进一步验证了其强大的战略执行力。

1.10 TransMedics(TMDX):医疗垂直领域的“全栈服务”构建者

Section titled “1.10 TransMedics(TMDX):医疗垂直领域的“全栈服务”构建者”

TransMedics的Q2财报表现稳健且出色。公司营收达到1.574亿美元,同比增长38%。公司实现了净利润3490万美元,同比增长186%。其增长主要源于其独有的器官护理系统(OCS)和国家OCS计划(NOP)的利用率增加。

TransMedics的完美财报源于其“产品+服务”的独特商业模式。它不仅仅是销售一个医疗设备,而是提供一套完整的、从器官护理到物流运输的“端到端”解决方案。其服务收入同比增长43.9%,这部分收入的强劲增长证明了公司在通过其航空机队等服务来构建生态系统,从而形成一个高毛利率、高粘性的商业飞轮。这种对核心需求(器官运输和护理)的“全栈”覆盖,使其在市场中几乎没有直接竞争对手,也为公司带来了长期价值。管理层上调了2025年全年营收指引,显示出对未来的坚定信心。

1.11 MongoDB(MDB):云数据库巨头的成长性与盈利之战

Section titled “1.11 MongoDB(MDB):云数据库巨头的成长性与盈利之战”

MongoDB在Q2财报中实现了营收和非GAAP盈利的双重超预期。营收为5.914亿美元,同比增长23.7%,超出预期;调整后每股收益(EPS)为1美元,也远超预期的0.67美元。其云数据库服务Atlas是核心驱动,贡献了总营收的74%,同比增长29%。

然而,尽管非GAAP数据亮眼,但财报指出,GAAP运营亏损为7140万美元。多家信源也强调,实现持续盈利(GAAP Net Income)仍然是其“长期挑战”。从商业逻辑来看,MongoDB处于“成长性”与“盈利性”的永恒博弈中。公司正通过烧钱扩张,以抢占云数据库市场的巨大潜力。投资者此刻更看重其在AI和云数据库市场的巨大潜力,而非当下的盈利性。这种战略选择是理性的,但这也意味着,如果增长速度放缓,市场对其盈利能力的审视会变得更加严苛。

1.12 Shopify(SHOP):全球电商基础设施的稳步扩张

Section titled “1.12 Shopify(SHOP):全球电商基础设施的稳步扩张”

Shopify的Q2财报稳健且持续。公司营收同比增长31%,自由现金流利润率连续八个季度保持双位数,财务状况极为健康。这份财报最值得称道的细节是其全球化战略的成功。财报强调,北美、欧洲、亚太地区的商品成交总额(GMV)增速环比加快,其中欧洲地区的增速高达42%。这说明公司并未躺在北美市场的功劳簿上,而是在积极进行地理多元化,这不仅为未来增长打开了新空间,也降低了单一市场风险。

公司强调,从初创企业到全球品牌,各类商家都选择Shopify来发展业务。这表明其平台对不同规模客户的吸引力持续增强。展望Q3,公司预计营收将同比增长中高二十位数百分比,这种稳健且持续的增长,使其在电商领域继续保持领先地位,市场对其前景持乐观态度。

二、排行榜:2025年Q2财报的“十全十美”公司

Section titled “二、排行榜:2025年Q2财报的“十全十美”公司”

基于前述的深度分析,我们将采用“完美财报”评判标准(指标超越度、增长质量、盈利能力、未来指引、战略执行力)对12家公司进行综合评分,并选出表现最佳的10家。

  1. Palantir (PLTR):营收和利润双双大超预期,特别是美国商业业务的爆发性增长,证明了其核心战略转型的成功。GAAP盈利和高额合同预订额提供了坚实的财务基础。尽管估值高昂,但完美的财报数据为这种高估值提供了强有力的基本面支撑。
  2. SoFi (SOFI):连续第七个季度实现GAAP盈利,业务模式被完美验证,特别是会员和产品数的交叉增长,显示出极强的客户粘性。营收加速增长和上调的指引表明其“金融服务生产力飞轮”正在加速。
  3. Axon (AXON):连续第六个季度保持30%+的营收增长,其SaaS化转型和软件业务的强劲表现使其业务质量极高。高达107亿美元的未来合同预订额提供了无与伦比的长期增长可见度,这是其最突出的优势。
  4. Iren (IREN):尽管财报时间存在混淆,但其战略性地从比特币挖矿向AI数据中心转型,并实现营收和净利润的爆发性增长,使其成为Q2最引人注目的“黑马”。与NVIDIA的合作和对AI算力基础设施的押注,使其拥有巨大的增长潜力。
  5. Microsoft (MSFT):财报表现全面超出预期,尤其是在AI领域的营收增长和对Azure的巨额投资,显示出其强大的战略执行力。作为AI基础设施的领导者,其增长质量极高,且市场对其未来充满了确定性。
  6. Shopify (SHOP):财报显示营收强劲增长,且连续八个季度实现双位数自由现金流,财务状况极为健康。全球GMV的加速增长,特别是欧洲市场的出色表现,验证了其全球化战略的成功。
  7. Meta (META):核心广告业务在AI驱动下表现出色,运营效率提升,为公司提供了充足的现金流。虽然Reality Labs仍处于亏损状态,但核心业务的强劲表现和对未来AI的巨额投资,使得其战略前景清晰且充满想象力。
  8. Astera Labs (ALAB):营收同比增长150%,且首次实现GAAP盈利,数据非常亮眼。作为AI基础设施的“卖铲人”,其业务处于高景气赛道。
  9. MongoDB (MDB):营收和非GAAP盈利均超出预期,云服务Atlas表现强劲,客户持续增加。公司上调全年指引,表明其对未来增长的信心。
  10. TransMedics (TMDX):营收同比增长38%,实现了盈利,并上调了全年指引。其独特的“产品+服务”模式在医疗器械市场构建了深厚护城河,增长质量高且可持续。
公司名称营收同比增速 (%)EPS (美金)是否超预期净利润/自由现金流表现未来指引 (是否上调)战略执行力评判总分
Palantir (PLTR)48%$0.16GAAP净利润$3.27亿,Adj. FCF $5.69亿极高9.9
SoFi (SOFI)43%$0.08连续第七季GAAP盈利,净利润暴增459%极高9.8
Axon (AXON)33%未披露未披露净利润$3600万极高9.7
Iren (IREN)228%未披露净利润$1.769亿,成功扭亏为盈未披露极高9.6
Microsoft (MSFT)18%$3.65净利润$272亿极高9.5
Shopify (SHOP)31%未披露未披露连续八季FCF利润率双位数9.4
Meta (META)22%$7.14净收入$183.4亿,FCF $85.5亿9.3
Astera Labs (ALAB)150%$0.29未披露首次实现GAAP净利润$5120万9.0
MongoDB (MDB)23.7%$1.00非GAAP盈利,GAAP仍亏损8.9
TransMedics (TMDX)38%$0.92未披露净利润$3490万8.8

2.3 遗珠之憾:为何我的持有股$PLTR进入十强?

Section titled “2.3 遗珠之憾:为何我的持有股$PLTR进入十强?”

用户在查询中特意提到了其持有的Palantir(PLTR),并询问其是否在最完美的财报榜单中。我的分析和排名已经清晰地回答了这个问题。

Palantir不仅在榜单之内,而且位列第一。 为什么?因为它的财报不仅仅是数字上的超越,更是一次商业模式的成功验证。财报前,市场对PLTR的印象依然停留在“神秘的政府服务公司”,增长瓶颈和估值过高是主要争议。然而,这份财报用数据证明了其美国商业业务的爆发性增长,特别是AI平台(AIP)的强劲需求,成功地改变了这种市场认知。这种从一个高风险、依赖单一客户的“神秘”公司,转变为一个拥有广阔市场、可复制的AI软件平台公司,是公司价值的根本性转变。

尽管其估值高昂,但高估值本身就是对这种完美战略执行力的认可。它代表了市场对公司未来增长潜力的集体信任。因此,从一个专业的分析角度看,这份财报堪称本季度“最完美”的典范。

3.1 宏观趋势:Q2财报季揭示的经济信号

Section titled “3.1 宏观趋势:Q2财报季揭示的经济信号”

本季度财报的核心主题是 “AI”,它已从概念变为实实在在的收入和利润驱动力。无论是Palantir、Microsoft、Astera Labs还是Iren,其业绩的爆发都与AI基础设施建设和应用密不可分。这表明,全球数字经济的底层架构正在经历一次大规模的升级,而那些处于AI供应链核心位置的公司,正享受着前所未有的增长红利。

此外,垂直领域的 “全栈服务” 模式正在成为新的护城河。Axon、TransMedics、SoFi等公司不再仅仅提供单一产品,而是通过提供完整的解决方案来锁定客户。这种模式使得客户一旦进入其生态,就会产生极高的转换成本和持续的、可预测的收入,从而构建起强大的竞争壁垒。

面对这份财报榜单,普通投资者需要学会看穿数据的表象,理解其背后的商业逻辑:

  • 警惕估值,但更要看增长质量:面对动辄数百倍市盈率的高估值,不要仅凭数字就判断其好坏。要深入分析其增长驱动力是否可持续,是否正在构建不可复制的商业模式。一个有质量、有护城河的高增长,比一个低估值但增长停滞的公司更有价值。
  • 关注战略转型:那些敢于并成功执行战略转型的公司(如PLTR、HOOD、IREN)通常能带来超额回报,因为它们改变了市场对自身的固有认知,打开了全新的增长空间。
  • 投资不是一锤子买卖,而是长期陪伴:财报季是了解公司“人性”的最佳时机。要观察管理层如何面对挑战,如何进行战略投资,并判断你是否认同他们的长期愿景。如果你能认同公司的长期愿景,那么短期股价的波动就不会动摇你的信心。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

业务高效落地 AI:别再卷 Demo,把业务跑通才是正解

老板兴奋、技术沮丧、业务不愿用。 这不是技术问题,这是组织问题。AI 落地成不成,关键看老板-技术-业务这条“三角链路”能不能闭环。

下面这套文章=实战打法。你可以直接照抄,开干就行。


过去两年,从 bot 到 agent,气氛拉满,但项目却慢半拍。原因往往不是模型不够强,而是组织协作没对齐:老板想讲故事且要三个月见 ROI,技术想多模态+合规+可扩展,业务只认 KPI 和转化。 现实数据也在提醒我们:企业级 ROI 通常要更久,不要指望一口吃成胖子。Forrester 与一线 CIO 的复盘指出,18~24 个月更常见;急于求成反而更容易“烧钱不见效”。 IBM 委托的 2024/25 年度调研也显示,不到一半的企业 AI 项目当年盈利,多数把三年内见到成本节省当作合理预期。

AI 落地不是技术赛,是组织工程。MVP、工作流重构、治理与 KPI 追踪,哪个都不能少。


一、组织先行:把三方拉到同一张桌子

Section titled “一、组织先行:把三方拉到同一张桌子”

老板要做什么?

  • 任命“一把手工程”挂帅,CEO/总经理亲自盯治理与跨部门协同。
  • 明确“三张清单”:投入边界、风险红线、90 天内要看的指标。

McKinsey 的全球调研表明,高层直接负责 AI 治理跟踪明确 KPI,与更高的实际利润改变量显著相关。

技术要做什么?

  • 不摆“工具展”,改打“闭环工具链”:数据→RAG/Agent→埋点→灰度→A/B。
  • 合规与可解释并入流水线,数据血缘/审计随查随有。

业务要做什么?

  • 业务目标要可量化能被 AI 直接影响:AHT、FCR、转化率、处理时长、人天节省。
  • 业务同学参与Prompt 共创。最新研究也强调:提示词质量与模型本身一样重要

二、90 天最小闭环打法(可直接执行)

Section titled “二、90 天最小闭环打法(可直接执行)”

Day 0–7|选场景

  • 只选一个,优先“文字密集、流程标准、量大可计量”的环节:客服答复、知识检索、邮件/合同起草、工单分类。
  • 定基线:例如客服的 AHT、一次解决率、NPS。

Day 8–21|搭底座

  • 数据清洗+权限治理+RAG 索引,先把“能被问到的”整理干净。
  • 三类埋点:质量(准确率/召回)、效率(时长/并发)、效果(转化/节省)。

Day 22–45|做 MVP

  • 小队结构:业务 PO+技术 TL+数据治理+法务/合规+AI Ops
  • 业务与技术共写系统提示与 Few-shot 案例,周迭代两次。
  • 影子模式(Shadow):AI 给建议,人来执行。

Day 46–60|A/B 验证

  • 切 20–30% 流量做对照,盯三项:AHT、一次解决率、满意度
  • 学界在客服场景的随机实验显示:引入生成式 AI 的坐席,人均生产率+14~15%,对新人提升更大。把你的指标体系按这个设计复刻就行。

Day 61–90|灰度放量

  • 达到门槛就进半自动:常规问题 AI 先答,复杂问题人兜底。
  • 建立变更与回滚机制,指标跌破阈值自动降级。

OECD 的 2025 评估强调:要吃到生产率红利,组织、流程、策略必须为 AI 调整,不只是“换个模型”。

现实预期

  • 成本回收看项目复杂度,6–24 个月都合理;过度追求“当季 ROI”,大概率适得其反。

三、六类“快见效”场景清单(附 KPI)

Section titled “三、六类“快见效”场景清单(附 KPI)”
  1. 客服辅助/知识检索
  • KPI:AHT↓、一次解决率↑、NPS↑;
  • 关键:高频问答知识库+RAG、流程模板化、质量抽检;
  • 参考证据:生产率显著提升,新手获益更大。
  1. 销售邮件/方案起草
  • KPI:触达率/回复率/预约率;
  • 关键:CRM 数据→个性化洞察→生成草稿→人工润色。
  1. 合同/法务初稿
  • KPI:起草时长、人均处理量、审签往返次数;
  • 关键:条款库+提示词模板+审批水印;
  • 法务不再只做“刹车”,而是并联在台架上做“护栏”
  1. 财务对账/票据抽取
  • KPI:核对准确率、处理时长、异常召回;
  • 关键:结构化抽取+规则校验+异常工单化。
  1. 供应链/排产问答
  • KPI:计划偏差、缺货率、决策时延;
  • 关键:约束式问答+可解释推理→人审批。
  • 研究表明,LLM 在中长期预测上对决策有帮助。
  1. 内部知识门户
  • KPI:搜索时长、重复提问率、满意度;
  • 关键:权限分级、热区迭代、反馈-再训练闭环。

四、治理与成本:别让“省人”变“烧云”

Section titled “四、治理与成本:别让“省人”变“烧云””
  • 成本盘点三件套:推理费、向量检索/带宽、标注与评测。
  • 算力节流:小模型+缓存+检索裁剪;灰度流量与峰谷调度。
  • 质量/风险双看板:准确率、幻觉率、隐私/版权/IP 事件。
  • 行业观察:企业在 2024 年普遍感到“回报难”,2025 转向“聚焦高价值用例+控成本”。

五、可复制的组织机制(模板就这张)

Section titled “五、可复制的组织机制(模板就这张)”
  • Exec Sponsor(老板):拍板人、资源担保、挡拆路线干扰;
  • AI PMO/转型办:节奏、里程碑、风险清单、经验复用;
  • 业务 PO:KPI 设定、提示词共创、验收;
  • 技术 TL:架构、性能、上线/回滚;
  • 数据治理:权限/血缘/审计/留痕;
  • 法务/合规:AI Act/隐私/版权合规;
  • AI Ops:监控、评测、模型切换。

调研显示:跟踪 KPI、分阶段路线图、设专门团队,与实际 EBIT 改善显著相关。


  • 客服/坐席助理:学界随机实验证明,生产率+14~15%,新人提升尤甚;你的指标设计可以照此复刻。
  • KPMG 税务 Agent(TaxBot):在合规前提下用 RAG 汇聚税法与内部知识,生成 25 页建议草稿大幅提效,但操作权限限定于持证税务师,把风险管住了。

七、十条避坑清单(项目复盘必对勾)

Section titled “七、十条避坑清单(项目复盘必对勾)”
  1. 以 Demo 代替场景 → ❌;以单一 KPI代替价格标签 → ✅
  2. 只谈模型不谈数据 → ❌;先做数据/权限 → ✅
  3. 不埋点不评测 → ❌;A/B+影子模式 → ✅
  4. 追大而全 → ❌;单点闭环 → ✅
  5. 标注“随缘” → ❌;质检任务制 → ✅
  6. Prompt 写给自己看 → ❌;写成产品说明书 → ✅(提示词质量=半个产品)
  7. 法务后置 → ❌;法务并联 → ✅
  8. 预算拍脑袋 → ❌;里程碑拨款 → ✅
  9. 只用“通用 Copilot” → ❌;深耕垂直流程 → ✅
  10. 只谈当季 ROI → ❌;6–24 个月回收期 → ✅

结语|找对“桥梁人”,三角就不难

Section titled “结语|找对“桥梁人”,三角就不难”

AI 落地的关键,是那个能在老板、技术、业务之间“翻译”的人。 有了这座桥,最小闭环就能跑通,数据-提示词-评测-灰度的飞轮就能转起来。 别卷 Demo,卷闭环。 这才是 2025 年公司里最稀缺的竞争力。

还在犹豫 ROI?企业级调查显示:今天大部分公司还在路上,但结构/流程/治理到位,价值就开始落地


  • 你们公司现在的**“权力三角”**是谁在推、谁在拖、谁在躺?
  • 下一个90 天最小场景,你会选哪里?为什么?

Claude Code 最佳实践:原型开发法

先用 Claude Code 快速“跑通原型”,把需求打磨清楚;再回到工程化设计与实现,把质量与稳定性做到位。效率和质量,都要。


做产品最难的,不是写代码。 是把“到底要做啥”讲清楚。

所以我更推荐这套两段式节奏: 第一版只做原型,第二版认真做工程。 Claude Code 很适合这个打法:一边和你在终端里并肩作战,一边把杂活脏活先铺开,再回头精修。


阶段 1:只做原型,追求“跑通”

Section titled “阶段 1:只做原型,追求“跑通””
  • 目标:把功能跑起来,让需求说人话。
  • 不关注:设计、性能、安全、代码质量。
  • 做法:抛弃型代码,完全交给 AI 主导,快速探索可行路径(类似“Spike/Throwaway Prototyping”的思路)。

为什么这样干? 因为很多模糊点,只有跑起来,才会暴露。截图、动图、可点的原型,比十页需求文档有用多了。

Claude Code 在这一步的优势:

  • 直接在本地项目里读、改、跑代码,对话即行动。
  • 可把高频动作做成 Slash Commands,一键复用,比如“起后端 + 假数据 + 本地跑”。

边界提醒:如果你用的是个人订阅版本,近期 Anthropic 有数据用于训练的选择机制,涉及 Claude Code 会话。做公司项目原型前,先确认隐私设置


  • 触发点:需求基本确定,范围(Scope)稳定。
  • 输出物:数据库 Schema、API 协议、状态管理、模块边界、测试策略等。
  • 节奏:人主导,AI 辅助。由你下设计锚点,再让 AI 按图施工。

Claude Code 在这一步的用法:

  • 让它按你的设计搭脚手架、补样板、补测试。
  • 在 PR/Issue 里 @claude 自动出 PR、修小问题(GitHub Actions 集成)。
  • 将工程约定写进 CLAUDE.md / Slash 命令,让 AI 按项目规则执行。

安全/非功能建议:把安全、性能、可运维列为“技术 Enablers”,在二阶段逐步纳入 DoD(完成定义)。必要时先做 Spike 验证。


  • 需求已经被验证过(老功能重做、明确的对标产品)。
  • 风险主要在工程实现而非产品定义。 这时可直接进阶段 2 设计与实现,Claude Code 作为脚手架 + 执行工具上场。

落地手册:我在日常开发里的推荐用法

Section titled “落地手册:我在日常开发里的推荐用法”

下面 4 个常见场景,给到原型 → 工程化的实操清单。

例子 A:增长实验落地页(Next.js)

Section titled “例子 A:增长实验落地页(Next.js)”

原型版(半天搞定)

  • 让 Claude Code 生成最小页面、埋点、表单回传到 /api/echo。
  • 假数据 + 简单 A/B 参数切换先跑起来。
Terminal window
# 原型:生成页面 + 假接口 + 本地起服务
claude "/proto nextjs landing with /api/echo and ab flags; run dev"

工程版

  • 设计 路由与数据模型,约定埋点事件名。
  • 输出 OpenAPI 或协议文档;写 单元/契约测试;接入 CI 上的 Claude Code Action 自动体检与修复。

例子 B:小程序 / BLE 设备数据采集

Section titled “例子 B:小程序 / BLE 设备数据采集”

原型版

  • 优先把扫描 → 连接 → 读数 → 本地缓存跑起来,忽略异常处理。
  • 用 Slash Command 快速复用构建与真机调试指令。

工程版

  • 明确 状态机(连接/断开/重连/超时)。
  • 设计 离线同步协议重放策略;补充 边界测试
  • 把故障注入与恢复做成 /test-ble-reconnect 命令。

例子 C:内部审批系统(Rails/React)

Section titled “例子 C:内部审批系统(Rails/React)”

原型版

  • 只做核心流程:提交、流转、通过/驳回。
  • 用内存或 SQLite,先别上权限。

工程版

  • 设计 RBAC审计日志表结构;写 迁移脚本
  • 速率限制审计导出SLO 报表;Claude Code 在 PR 里自动修小问题和补测试。

例子 D:数据服务(FastAPI + DuckDB)

Section titled “例子 D:数据服务(FastAPI + DuckDB)”

原型版

  • 按场景先出 3 个只读 API,返回静态或半动态数据。
  • 忽略缓存与权限,先让前端能调通。

工程版

  • 定义 分页/排序/过滤协议与 错误码;补鉴权
  • 缓存层限流;将负载基线写成 /bench-api 命令一键压测。

  • 交互式终端 + 命令行,边聊边改文件,适合高频迭代。
  • Slash Commands 把你的“操作剧本”固化下来,团队共享。
  • GitHub Actions 让 @claude 进 PR/Issue,自动补丁、生成 PR、对齐项目规范。

这三件事连起来,就是一条从“想法 → 原型 → 工程化”的快车道。


  • 原型拖太久:超过 1~2 周还没定需求,就拆更小的故事点;必要时做 Spike 小结
  • 原型代码误上产线:分支隔离 + 目录标注 /proto-*,并在 CI 里阻断。
  • 二阶段无边界:写 工程 DoD(含安全与性能),把非功能项列为 技术 Enablers,逐 Sprint 拉完。
  • 隐私合规:公司项目优先用 企业/API 通道;个人订阅务必检查训练数据选择

原型不是偷懒,是加速“把事说清楚”。 工程不是慢,是把“长期成本”降下来。

用 Claude Code,我们可以把这两件事各就各位AI 主导跑原型,人类主导做工程。 今天就把你手头那个犹豫不决的需求,先跑起来

你怎么看?你的团队更卡在原型还是工程?评论区聊聊。

用 CC-Switch 一键切换 Claude Code & Codex 供应商

TL;DR 想在 Claude CodeCodex 之间快速切换 DeepSeek / Qwen Coder / GLM / Kimi K2 / packycode 等不同供应商?CC-Switch 是一个基于 Tauri 2.0 的极轻桌面应用(安装包约 5MB),支持一键切换、导入当前配置为默认、官方登录回切、自动备份等。新版 v3.1.0 已支持 Codex 供应商管理与一键切换。

引言:为啥你需要“供应商一键切换器”?

Section titled “引言:为啥你需要“供应商一键切换器”?”

每天写代码的我们,有时候更像是成本与速度的调度员。 今天为了速度用 Qwen Coder,明天为了复杂推理换 DeepSeek v3.1,遇到兼容性问题再切回 Claude 官方登录。如果还要到处改 ~/.claude~/.codex 配置,既烦又容易出错

CC-Switch 把这件事做成了一个开关: 点一下,供应商就切了。 配置副本自动管理、回滚不怕、官方登录随时回


  • 真·轻量:基于 Tauri 2.0秒开应用,官方实践也强调了 Tauri 的极小体积路线(比起 Electron 更克制)。 CC-Switch 在 v3.0.0 中从 Electron 迁到 Tauri 2.0,作者实测体积从 ~80MB 降到 ~12MB启动提速 10x

  • 同时支持 Claude Code 与 Codex

    • Claude Code 主配置:~/.claude/settings.json(或旧版 claude.json) 官方文档也确认 ~/.claude/settings.json 是标准入口。
    • Codex 主配置:~/.codex/auth.json(必需) + ~/.codex/config.toml(可为空) Codex README 亦提到 ~/.codex/config.toml 是配置中心,支持 MCP 等。
  • 一键切换 & 自动备份: 切换会把选中的供应商副本覆盖到主配置;若当前有“正在使用”的供应商,还会先把主配置回写到该供应商副本,方便回滚。内部配置 v1→v2 迁移也会在 ~/.cc-switch/时间戳备份

  • 预设即用:DeepSeek v3.1、Qwen Coder、GLM、Kimi K2、packycode… 只填 key 就能一键配置

  • 官方登录随时回: 想用 Claude 或 Codex 的官方登录?添加预设“官方登录”项,切换后重启终端即可 /login 或在 Codex 侧“Sign in with ChatGPT”。

  • 隐私友好: 所有信息仅存本地 ~/.cc-switch/config.json


Windows / macOS / Linux 全平台覆盖:

  • Windows:从 Releases 下载 CC-Switch-Setup.msiWindows-Portable.zip
  • macOS:下载 CC-Switch-macOS.zip,首次因“未知开发者”提示,去“系统设置 → 隐私与安全性 → 仍要打开”即可。
  • Linux:下载 .deb 安装包。

小提醒:作者没有苹果开发者账号,第一次打开会被拦,按上面的路径放行就行。


  1. 添加供应商 点击“添加供应商”,选择预设或自定义,填好 API Key。 (Codex 使用 API Key 时,OPENAI_API_KEY 常见;若你走官方账号登录,就切到“Codex 官方登录”。)

  2. 一键切换 在列表里勾选想用的供应商,点单选按钮。CC-Switch 自动把副本覆盖到主配置

  • Codex:覆盖 ~/.codex/auth.json~/.codex/config.toml(若无会生成空的 config.toml)。
  • Claude Code:覆盖 ~/.claude/settings.json(或旧版 claude.json)。
  1. 重启/新开终端 新开一个终端 Tab 或重启终端,让 CLI 读取到最新配置;Claude Code 官方也建议用 /login 登录官方账号时重启流程更干净。

我推荐的 3 种使用方式(实战向)

Section titled “我推荐的 3 种使用方式(实战向)”

DeepSeek v3.1 设为默认,遇到前端重构或大文件分析时一键切到 Qwen Coder,再需要复杂推理时切回 DeepSeek。全程无需手改配置

你已有在用的 CodexClaude Code 配置?CC-Switch 会把当前主配置自动导入为 default 供应商副本,以后换来换去都有“老家”可回。

调试出问题或配额吃紧时,一键切回 Claude 官方登录Codex Sign in with ChatGPT少走弯路,先把事搞定


  • Codex 的配置文件 社区实践以 ~/.codex/config.toml 为主,但也有人提到历史版本/安装方式导致文件名或存在性不一(如只见到 config.json)。CC-Switch 在切换时会兜底创建空的 config.toml,确保一致性。

  • Claude Code 的官方路径 官方文档明确:用户级配置就是 ~/.claude/settings.json。如果你的老环境还有 claude.json,CC-Switch 也会兼容

  • 隐私与安全 CC-Switch 只改本地文件,不传服务器;需要团队共享时,请自己用 Git 管理项目内的 .claude/settings.json 等(Claude Code 官方也支持项目级 settings)。


  • 市面也有 命令行工具 做供应商切换,但 CC-Switch 的**图形化与“副本策略”**更直观、更稳。
  • 如果你追求极简、可视化、一键回切官方登录,它是更合适的“常驻小工具”。(可与 CLI/脚本互补。) (参考:社区也有类似管理工具与文章,但 CC-Switch 更聚焦“GUI + 双生态”。)

Q1:切换出错能回滚吗? 可以。当前“正在使用”的主配置先被备份回供应商副本,你随时可以切回那个供应商。

Q2:Codex 一直提示登录或配置无效? 优先尝试 “Codex 官方登录”(Sign in with ChatGPT),或者确认 OPENAI_API_KEYOPENAI_BASE_URL 写在 auth.json/config.toml 的正确位置。

Q3:为什么体积这么小、启动这么快? 因为 Tauri 只打包必要的原生壳与前端资源,官方指南也强调优化体积的思路。迁移到 Tauri 2.0 后,作者给出的对比数据非常可观。


把“切换供应商”变成一次点击,你就能把注意力放在真正重要的事上:写对的代码,做对的决策。 对于跨模型协作的人来说,CC-Switch 就像是你桌面上的模式档位杆——顺手、可靠、够快。 去试试它的 v3.1.0,把你的多供应商工作流飞起来。

英伟达 2026 财年第二季度财报电话会议:万亿美元AI叙事下的电力瓶颈与地缘政治博弈

引言:工业革命的序曲与巨头的话语权博弈

Section titled “引言:工业革命的序曲与巨头的话语权博弈”

在持续狂飙突进的人工智能浪潮中,英伟达(NVIDIA)不仅以其GPU硬件成为了算力基础设施的“新石油”,更通过其创始人黄仁勋的每一次公开讲话,持续构建着一场关于“新工业革命”的宏大叙事。

本报告基于英伟达 2026 财年第二季度(截至 2025 年 7 月 27 日)的财报电话会议内容,旨在超越表面的财务数字和技术亮点,运用事实核查、逻辑分析与批判性思维,深入探究其宏大愿景背后的现实制约、地缘政治风险以及各方利益的微妙博弈。报告将逐一解构会议中的核心要点,力求为读者呈现一个多维、立体且充满洞见的真实图景。

本分析将首先梳理英伟达的核心财务数据与业务亮点,并将其与第三方专业机构的预测进行比对,以识别任何可能存在的夸大或误导。其次,报告将深入剖析公司所宣称的技术突破,特别是“每瓦 Token 产出效率”的提升,揭示其背后所蕴含的复杂商业策略。最后,报告将对中美地缘政治博弈在财报会议中的具体体现进行严谨分析,特别是针对 H20 芯片销售的“15% 收入分成”模式,探讨其对未来全球科技贸易的深远影响。

第一章:事实的解构:财报数据与核心公告的逐项梳理

Section titled “第一章:事实的解构:财报数据与核心公告的逐项梳理”

1.1 财务业绩总览:表面下的暗流

Section titled “1.1 财务业绩总览:表面下的暗流”

英伟达在 2026 财年第二季度再次交出了一份超预期的财务答卷。公司总营收达到创纪录的 467 亿美元,这一数字不仅高于公司自身此前给出的 441 亿至 459 亿美元的展望,也超出了分析师普遍预期的 458 亿美元 。营收环比增长 6%,同比增长高达 56% 。

在盈利方面,公司的 GAAP 净利润约为 264 亿美元,同比大幅增长 59% 。然而,在亮眼的数字背后,存在一些值得深入审视的细节。非 GAAP 毛利率为 72.7%,高于展望 。但公司财务高管 Colette Kress 在会议中明确指出,这一毛利率受到了来自先前为 H20 芯片计提的存货准备中,1.8 亿美元的一次性释放影响 。若剔除该项正面影响,本季度的非 GAAP 毛利率将为 72.3% 。这一细节表明,公司在公布财报时对数据的呈现进行了“优化”,通过一次性利好来提升关键指标,从而向市场传递更强的业绩信号。尽管如此,这一调整后的毛利率依然处于公司长期预期的 70% 中段水平。

展望未来,英伟达对第三季度的营收指引高达 540 亿美元(上下浮动 2%),这预示着超过 70 亿美元的环比增长,再次大幅超越华尔街的预期 。毛利率指引也维持在 73.5%(非 GAAP),显示了公司对未来盈利能力的强大信心 。

1.2 数据中心业务:Blackwell 的全面崛起与 Hopper 的韧性

Section titled “1.2 数据中心业务:Blackwell 的全面崛起与 Hopper 的韧性”

英伟达的数据中心业务依然是其核心增长引擎。本季度该业务营收达到 411 亿美元,环比增长 5%,同比增长 56% 。其中,全新的 Blackwell 平台表现强劲,实现了 17% 的环比增长 。根据分析,Blackwell 在本季度贡献了约 270 亿美元的销售额 。公司首席财务官 Colette Kress 透露,面向云服务商、新一代“新型云”、企业以及主权客户的全栈 AI 解决方案正在共同驱动增长。目前,GB300 已进入全面量产阶段,每周生产约 1,000 个机架,预计在第三季度将进一步加速 。

值得注意的是,尽管 Blackwell 平台正在迅速爬坡并成为新的收入主力,上一代 Hopper 平台(包括 H100 和 H200)的需求却并未被完全侵蚀,反而出现了环比增长 。这表明市场对英伟达 GPU 的需求是分层且多元的。并非所有客户都需要或能承担最前沿的 Blackwell,部分客户出于成本效益、现有基础设施兼容性或特定工作负载的考量,仍在大规模采购 Hopper 系列产品。这反映出英伟达产品线的深度和广度,以及其在不同市场层级中强大的渗透能力。

1.3 关键技术突破:何为“每瓦 Token 产出效率”的十倍提升?

Section titled “1.3 关键技术突破:何为“每瓦 Token 产出效率”的十倍提升?”

在会议中,管理层反复强调了 Blackwell 平台在技术上的跨代式飞跃,特别是其在“每瓦 Token 产出效率”上的显著提升。据称,GB300/NVL72 平台相较上一代 Hopper 平台,能够实现高达 10 倍的能效提升 。这一惊人数字背后,是英伟达对其全栈解决方案的巧妙整合。

这种性能的提升并非仅仅来自单一的芯片硬件性能,而是多项技术协同作用的结果。首先,Blackwell 平台采用了全新的 NVLink 72 纵向扩展交换机,将整个机架(rack)作为一台统一的计算机来运行,而非仅仅是节点(node)级别的连接。其次,英伟达引入了专为推理与训练优化的新型精度格式 NVFP4(4 比特精度)。该技术在提供可媲美 16 比特精度的准确性的同时,其速度与能效却达到了 4 比特水平,从而实现了高达 7 倍的训练提速 。

这一技术叙事的精妙之处在于,它将“系统优化”和“软件创新”的成果,转化为直观的“硬件性能提升”。英伟达的真正核心壁垒并非仅仅在于制造芯片,而在于其全栈协同设计——从硬件架构、高速网络、到软件生态(如 CUDA, TensorRT-LLM)的全面整合。这种设计使英伟达能够将技术优势直接转化为客户的经济利益。在电力供应日益紧张的背景下,数据中心运营者对“每瓦性能”的关注度空前提高 。英伟达通过提高能效,使得客户能够在有限的电力预算下,创造出更多可变现的 Token 收入,这正是其对市场需求痛点的深刻理解和回应。

1.4 地缘政治迷雾:中国市场与 H20 芯片的现实困境

Section titled “1.4 地缘政治迷雾:中国市场与 H20 芯片的现实困境”

地缘政治对英伟达业绩的影响在本季度财报中体现得尤为明显。Colette Kress 证实,由于持续的出口管制审查,英伟达在第二季度没有向中国客户发运任何 H20 芯片,且第三季度的财务展望也未包含这部分收入 。然而,公司已获得部分中国客户的许可证,并预计在第三季度有望发运 20 亿至 50 亿美元的 H20 。

一个令人震惊的细节浮出水面:公司透露,美国政府官员表达了从获得许可的 H20 销售所产生的营收中获取 15% 份额的预期 。多家第三方媒体报道证实,这是一种“高度不寻常”且可能存在法律争议的安排 。这并非传统的税收,而更像是一种政府以发放出口许可为条件,向私人企业征收的“合伙人利润分成”。这一做法突破了传统的贸易规则和法律框架,为未来的政府与企业合作开创了一个危险的先例 。

这一事件深刻揭示了国家利益与商业利益之间的矛盾与博弈。美国政府希望通过出口管制来维护国家安全与技术领先地位,同时又希望从有限的对华销售中获利。而英伟达则在夹缝中求生存,既要遵守规则,又要尽量争取中国这个全球第二大计算市场(占全球约 50% 的 AI 研究人员)的份额 。黄仁勋在会议中反复强调,允许美国科技公司服务中国市场至关重要,因为这有助于确保美国技术栈成为全球标准,从而维护美国的行业领导力 。

1.5 营收来源的微观洞察:新加坡的秘密与 Hopper 的韧性

Section titled “1.5 营收来源的微观洞察:新加坡的秘密与 Hopper 的韧性”

财报中还包含了一个看似平淡但极具分析价值的数据点:本季度来自新加坡的开票收入占比高达 22% 。然而,公司紧接着澄清,这些开票收入中超过 99% 的最终客户是美国本土客户 。这一数据澄清了市场对“英伟达是否通过新加坡向中国转运芯片”的潜在猜测,同时也揭示了全球贸易与财务结算的复杂性。许多跨国公司出于税收或运营效率的考量,会选择在新加坡等国际金融中心集中开票与结算。该数据提醒分析者,在审视国际公司的财报时,必须深入探究其背后的业务模式,而非仅停留在表面的地域数据上。

此外,公司还披露向中国以外的一位“不受限客户”销售了约 6.5 亿美元的 H20 芯片 。这表明,尽管 H20 最初被设计用于满足中国市场的出口管制要求,但其作为一种特定性能区间的产品,在其他市场也具备商业价值。这进一步证明了英伟达在产品策略上的灵活性,能够根据地缘政治环境的变化,通过调整产品规格来满足特定市场需求。

第二章:深度分析:多维视角下的严格审视

Section titled “第二章:深度分析:多维视角下的严格审视”

2.1 事实、观点与信仰的辨析:解析黄仁勋的宏大叙事

Section titled “2.1 事实、观点与信仰的辨析:解析黄仁勋的宏大叙事”

黄仁勋在财报会议中的讲话充满着宏大叙事,将英伟达的业务置于一场“新工业革命”的核心位置。他将AI基础设施的建设比作一场“AI竞赛”,并预测到本十年末,全球AI基础设施的投入将达到 3 万亿至 4 万亿美元的规模 。这不仅仅是一种市场展望,更是一种精妙的预期管理。通过将潜在市场规模设定在万亿美元级别,他试图合理化英伟达目前的高估值和持续的高速增长,并向投资者传递一个清晰的信息:我们仍在增长周期的早期。

然而,对这一预测进行事实核查,会发现来自第三方专业机构的报告给出了截然不同的数字。例如,Markets and Markets 预测到 2030 年全球 AI 基础设施市场规模为 3944.6 亿美元 ,而 Grand View Research 的预测则为 2234.5 亿美元 。这些数字与黄仁勋的 3-4 万亿美元相去甚远。这种巨大差异并非源于数据的错误,而是基于不同的定义和假设。黄仁勋的定义可能更广,将整个AI工厂所需的全部基础设施(包括电力、冷却、建筑施工等)都囊括在内 。而第三方报告则可能仅关注硬件、软件和服务本身。

这一差异也揭示了对英伟达前景判断的根本分歧。看多者相信AI将重塑一切,并克服所有物理瓶颈,从而实现万亿美元的愿景。看空者则认为,电力供应、供应链瓶颈和地缘政治等现实问题,将严重制约其增长的上限 。英伟达在会议中反复强调“每瓦性能”的提升,正是其试图通过技术进步来部分抵消现实世界中物理限制的策略体现。

2.2 逻辑漏洞与常识的拷问:探究“护城河”的边界

Section titled “2.2 逻辑漏洞与常识的拷问:探究“护城河”的边界”

在与分析师的问答环节中,黄仁勋被问及来自客户自研 ASIC(专用集成电路)的竞争。他对此的回应并非直接否认,而是将英伟达的优势重新定义为“全栈协同设计”。他指出,ASIC 在针对特定算法时可能具有更高的能效,但其灵活性差,无法适应快速演变的模型架构 。相比之下,英伟达的 GPU 平台凭借其通用性、成熟的 CUDA 软件生态系统以及从芯片、网络到系统集成的全栈解决方案,为客户提供了最佳的实用性和最长的生命周期 。

黄仁勋的这一论点并非诡辩,而是基于对商业本质的深刻理解。对于亚马逊(AWS)和谷歌(Google)等大型云服务商而言,开发自己的 ASIC(如 Trainium 和 TPU)是出于降低对单一供应商(英伟达)的依赖、控制成本并实现供应链安全的需求 。然而,绝大多数客户不具备这种自研能力。对于他们而言,选择供应商时不仅要看芯片性能,还要考量生态系统、兼容性、软件支持以及整个平台的生命周期成本 。英伟达通过其强大的全栈方案,有效地解决了这些问题,这正是其超越竞争对手的真正壁垒。

因此,GPU 与 ASIC 之间的竞争更像是通用性与专用性、开放生态与封闭生态之间的博弈,两者在短期内会共存,但英伟达凭借其生态优势,将继续在更广泛的市场中保持主导地位 。

2.3 利益与需求的驱动:揭示台面下的动机

Section titled “2.3 利益与需求的驱动:揭示台面下的动机”

对财报电话会议的分析,必须超越技术与财务本身,深入探究台面下的利益与需求。

  • 公司的利益(英伟达): 公司的核心动机是最大化营收、利润和市场份额。通过宏大叙事、超预期业绩和股票回购(本季度回购 100 亿美元,并新增 600 亿美元授权),英伟达向市场传递其增长故事的可信度,并维护其高估值。同时,公司通过技术创新持续强化其在AI基础设施中的主导地位。

  • 政府的利益(美国政府): 拜登政府的动机是多重的,既要通过出口管制维护国家安全,防止尖端技术落入战略竞争对手之手,又要确保美国企业在AI竞赛中保持领先。H20 的 15% 收入分成协议,是一种前所未有的干预模式,它既体现了政府对 AI 战略地位的高度重视,也反映了其在实用主义下对经济利益的追求 。

  • 客户的利益与需求: 客户的核心需求是获得具有最佳成本效益的算力。这就是为什么他们对“每瓦性能”和“每美元性能”如此看重。对于头部客户而言,自研 ASIC 是为了降低对单一供应商的依赖,避免被其产能和定价所掣肘。而对于绝大多数企业客户,其需求则在于一个稳定、高效、易于部署且有强大生态支持的解决方案。英伟达的全栈方案恰好满足了这一需求。

第三章:综合洞察与前瞻:对未来的多层解读

Section titled “第三章:综合洞察与前瞻:对未来的多层解读”

3.1 核心矛盾:宏大愿景与现实挑战的对立

Section titled “3.1 核心矛盾:宏大愿景与现实挑战的对立”

尽管英伟达描绘了 AI 基础设施市场的巨大潜力,但物理世界中的瓶颈是显而易见的。在会议中,黄仁勋也坦承,未来的主要限制因素将是电力和施工能力 。多家研究机构的报告也印证了这一观点,指出数据中心的爆炸式增长正在对全球电网造成巨大压力 。麦肯锡的研究数据表明,2025 年至 2030 年间,全球企业为满足 AI 需求的投资总额预计将达 6.7 万亿美元,这其中电力建设的投入将是最大的部分 。

因此,未来的 AI 竞赛将不再仅仅是芯片的竞争,更是电力、水资源、供应链和主权控制的综合博弈 。英伟达通过其“每瓦性能”的叙事,正在试图通过技术进步来部分抵消现实世界中的物理限制,从而实现其宏大愿景。

3.2 最终结论:英伟达的“叙事”与“现实”

Section titled “3.2 最终结论:英伟达的“叙事”与“现实””

英伟达在 2026 财年第二季度的强劲表现,是其在 AI 时代无可匹敌的技术、商业与政治洞察力完美结合的产物。其成功之处在于:

  • 无可争议的技术领导力: 无论是 Blackwell 平台、NVLink 72 还是 NVFP4 等创新,都展现了其在硬件和软件全栈上的领先地位。
  • 强大的市场主导权: 即使在最前沿的 Blackwell 平台迅速爬坡的同时,上一代 Hopper 平台的需求依然旺盛,这表明其产品线能够满足不同层级市场的需求,巩固了其市场份额。
  • 卓越的商业策略: 通过宏大叙事来管理市场预期,通过全栈解决方案构建生态系统护城河,同时在复杂的政治环境中保持战略灵活性。

然而,投资者和分析师也需要对以下几个方面保持警惕:

  • 宏大愿景的现实制约: 尽管市场潜力巨大,但电力、供应链、资本开支等现实瓶颈可能比技术竞争本身更能决定英伟达增长的上限。
  • 地缘政治风险的持续不确定性: H20 芯片的收入分成协议预示着一种新的、更具干预性的政府-企业关系模式,这可能在全球范围内产生深远影响,并增加未来的不确定性。
  • 来自客户自研 ASIC 的长期挑战: 尽管短期内 ASIC 无法撼动英伟达的地位,但头部云厂商的自研努力,反映了他们对供应链安全的长期需求。

综上所述,英伟达的“新工业革命”叙事,既是其对未来商业潜力的真实洞察,也包含了其巧妙的市场预期管理。其强劲的业绩源于其深厚的技术壁垒和全栈生态系统。然而,未来的发展将取决于它能否持续通过技术创新来解决物理世界中的非技术性瓶颈,以及能否在日趋复杂的全球地缘政治格局中灵活应对。

表 1:英伟达 Q2 FY26 财务数据核查与对比

Section titled “表 1:英伟达 Q2 FY26 财务数据核查与对比”
指标财报公布数据分析师预期公司展望差异分析
Q2 总营收467 亿美元458 亿美元441-459 亿美元大幅超越预期与展望
Q2 非 GAAP 毛利率72.7%71.8%71.8%高于预期,但受一次性 H20 存货准备释放影响;剔除后为 72.3%
Q3 营收展望540 亿美元 (±2%)527.6 亿美元-大幅超越预期
Q3 非 GAAP 毛利率展望73.5% (±50 个基点)--持续上升,接近 70% 中段水平

表 2:Blackwell 与 Hopper 性能参数对比

Section titled “表 2:Blackwell 与 Hopper 性能参数对比”
指标Hopper (H100)Blackwell (GB300/NVL72)性能提升与技术背景
互连技术NVLink 8 (节点级)NVLink 72 (机架级)跨代飞跃,将整个机架作为一台计算机
能效-10 倍“每瓦 Token 产出效率”提升并非简单算力提升,而是全栈优化,以应对电力瓶颈
精度格式FP8 (8 比特)NVFP4 (4 比特)在保持 16 比特精度的同时,实现 4 比特的速度与能效,带来 7 倍训练提速
推理性能-10 倍推理性能提升针对“推理与思考”类模型的优化
预测来源预测市场规模 (到 2030 年)预测 CAGR备注与分析
英伟达 (黄仁勋)3-4 万亿美元-可能包含所有相关基础设施,如电力、冷却和建筑
Markets and Markets3944.6 亿美元19.4%可能仅关注硬件、软件和服务本身
Grand View Research2234.5 亿美元30.4%市场判断存在巨大分歧,反映出对增长上限的根本认知差异
比较维度GPU(英伟达)ASIC(谷歌/AWS 等)分析与结论
通用性极强,能适应快速演变的模型架构较弱,专为特定算法设计GPU 的核心优势,是其能够持续领先的关键
性能/能效针对通用AI任务优化,通过全栈协同设计实现高能效在特定算法上性能和能效更高ASIC 有其优势,但全栈集成使其难以挑战英伟达的主导地位
生态系统拥有成熟的 CUDA 软件生态,开发者数量庞大生态封闭,需要客户投入额外开发成本英伟达的护城河,也是其他竞争者最难逾越的壁垒
供应商锁定客户存在对单一供应商的依赖客户自研,实现对供应链的完全控制头部客户自研 ASIC 的主要驱动力,以降低风险

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

超越算力:2025年美股值得关注的AI应用公司投资潜力盘点

超越算力:2025年美股值得关注的AI应用公司投资潜力盘点

Section titled “超越算力:2025年美股值得关注的AI应用公司投资潜力盘点”

随着生成式AI和智能代理(agentic AI)加速应用,市场关注的不再只是卖GPU的厂商,而是那些已经在AI应用中建立护城河的平台公司。本文盘点了美股市场上“AI时代的Mag7”重点标的,介绍它们的业务基本面、技术优势与最新财务表现,并展望其投资潜力。

提示:本文仅供参考,不构成具体投资建议,投资有风险,请审慎决策。


Palantir (PLTR):企业级AI“操作系统”

Section titled “Palantir (PLTR):企业级AI“操作系统””

业务模式与业绩
Palantir是著名的数据分析与情报平台,面向政府和企业客户提供实时决策支持。2025年第二季度公司营收突破10亿美元,同比增长约48%,美国商用业务几乎同比翻倍,政府业务也增长53%。公司与美陆军签订了10年1,000亿美元的大合同(将75个项目整合为一个),并从美国空天军和“Maven Smart”系统中获得数亿美元级采购订单。这一季度业绩超预期,推动全年营收指引上调至约41.4亿美元区间。此外,截至2025年8月,Palantir股价年内累计上涨逾107%,反映出市场对其增长前景的肯定。

技术与护城河
Palantir的平台将算法与大规模作战、物流、能源管理等场景深度结合,类似企业级的“神经系统”。其技术能够实时整合跨部门数据(如军队调度、能源电网平衡等),减少人工延迟。关键客户如国防机构往往将Palantir平台嵌入核心流程,一旦部署难以替换,形成高换位成本。公司持续投入AI功能(如Maven AI智能系统),进一步夯实技术领先地位。

投资潜力
Palantir正在从传统项目交付向软件订阅模式转型,高增长的收入和强劲的合同积压(bookings)支撑长期增长。随着企业和政府客户越来越依赖实时智能决策系统,Palantir的市场机遇巨大。当前股价虽已大幅上涨,但基于不断扩大的市值,其估值仍具挑战;投资者需权衡其成长性与高估值带来的风险。


Cloudflare (NET):互联网边缘的“执法者”

Section titled “Cloudflare (NET):互联网边缘的“执法者””

业务模式与业绩
Cloudflare是全球领先的网络基础设施平台,为网站和应用提供CDN、安全和边缘计算服务。2025年第二季度,公司实现营收5.123亿美元,同比增长28%。截至目前,Cloudflare共有约26.6万付费客户,其中有3,712家大客户(年度营收>10万美元),显示出高粘性的收入来源。值得一提的是,Cloudflare处理了全球约20%的网络流量,意味着其掌握着大量互联网通信的“咽喉要道”。

技术与护城河
Cloudflare利用遍布全球的300+城市节点,提供“Workers”边缘计算和Zero Trust安全等服务,为AI驱动的应用提供基础设施。未来智能代理需要访问海量在线资源,Cloudflare作为网络流量的中枢,可以成为其流量路径和安全策略的必经之地。公司正在研发“Workers AI”等产品,将AI推理能力部署到边缘,加速实时计算;同时推行按爬取计费模式,让网络流量成为可创收的资产。Cloudflare不必自己训练模型,但控制了“模型与互联网之间的交互通道”,形成独特护城河。

投资潜力
Cloudflare近年业绩持续加速,2025年年初以来股价已有约94%的涨幅。业务规模的扩张(年化营收超过20亿美元)和高达114%的净留存率,表明客户需求强劲。公司在云安全和内容分发市场份额大,且不断向AI基础设施延伸,具有明显成长预期。当前估值处于高位,但鉴于其全球流量中枢地位和扩张势头,长期看仍具吸引力。


CrowdStrike (CRWD):云端安全“守护者”

Section titled “CrowdStrike (CRWD):云端安全“守护者””

业务模式与业绩
CrowdStrike是全球领先的云原生网络安全平台提供商。2025财年第二季度,公司营收11.7亿美元,同比增长21%,创历史新高;净新年度经常性收入(ARR)达2.21亿美元。截至当季末,CrowdStrike总ARR约46.6亿美元,同比增长20%。公司财报特别提到其“Falcon”安全平台的快速增长:基于Falcon Flex的新许可模式,已有超过1000家客户采用;此外,云安全业务ARR已超过7亿美元。

技术与护城河
CrowdStrike的竞争优势在于其将AI与安全防护深度融合,形成“机器速度”的防御系统。其新推出的Charlotte AI可作为企业安全运营中心的自动分析师,本季采用率环比增长超过85%。每新增一台受保护的设备,或部署一个AI工作负载,都会带来更多安全订阅(如Falcon Flex、身份安全等)和高额续费,形成良性循环。同时,公司近年收购了Onum等大数据管道企业以增强SIEM能力,进一步扩大平台覆盖度。CrowdStrike已从传统的端点防护拓展到云原生安全全栈,其成熟的企业级用户基础和高留存率构筑了难以撼动的壁垒。

投资潜力
CrowdStrike继续在AI催生的安全需求中领跑。尽管短期股价波动,但考虑到强劲的ARR增长、超过4倍的净留存率和创新的订阅模式,长期前景被普遍看好。目前市值超千亿美元,投资者需要关注其未来盈利能力和指导预期。公司坚持高研发投入,预计将进一步巩固AI安全市场地位。


Snowflake (SNOW):数据云与AI的“润滑剂”

Section titled “Snowflake (SNOW):数据云与AI的“润滑剂””

业务模式与业绩
Snowflake运营着跨云的数据云平台,让企业能够统一托管和分析来自不同云厂商的数据。2025财年第二季度,Snowflake实现产品营收10.9亿美元,同比猛增32%;净留存率高达125%,显示现有客户使用量在不断攀升。截至报告期末,公司未确认收入(RPO)达69亿美元,同比增长33%,表明未来业绩可期。2025年前两季度新增客户533家,同比增长21%,其中50家客户营收超过100万美元。值得关注的是,与微软的深度合作成效显著:在Snowflake整体营收里最大占比仍为AWS,但Azure云业务成为增长最快的云平台,收入增速40%。

技术与护城河
Snowflake的优势在于其云原生、多云兼容的数据存储引擎,以及针对AI场景的创新功能。例如,其Cortex AI SQL使用户可以直接用SQL调用生成式AI服务,提升数据查询智能化;Snowpipe Streaming、SnowConvert AI等新产品亦在快速迭代。平台的一致性和高可扩展性满足了企业构建大规模AI工作流的需求,一旦关键业务依赖于Snowflake,切换成本极高。随着越来越多组织在AI和分析项目上投入,Snowflake位于数据流动核心的地位令其成为不可或缺的基础设施层。

投资潜力
Snowflake持续加码AI生态,提升用户黏性。公司营收和订阅量快速增长,但仍处于亏损状态,对估值要求较高。2025年8月财报发布后,公司上调全年营收指引,股价随之大涨。对于投资者而言,可关注其盈利路径与净利率改善,以及AI应用落地带来的长期价值增长。


MongoDB (MDB):面向AI的“内存层”

Section titled “MongoDB (MDB):面向AI的“内存层””

业务模式与业绩
MongoDB是热门的开源文档数据库,其云端服务Atlas成为企业级数据库替代方案。2025财年第二季度,公司营收5.914亿美元,同比增长24%;其中Atlas占比持续扩大,Atlas收入较去年同期增长29%,占当季收入的74%。公司客户基数庞大,截至7月31日,总客户接近5.99万家(其中近2800家为季度内新增),显示出广泛的市场渗透度。管理层表示,许多新客户是为AI应用打造基础设施,强调MongoDB在AI时代的价值。

技术与护城河
MongoDB的文档模型和灵活查询能力与传统关系型数据库(如Postgres)不同,为需要海量非结构化或半结构化数据处理的AI应用提供天然优势。在矢量检索(向量搜索)和流处理方面,MongoDB不断增强其平台功能。例如,MongoDB最近推出内置向量搜索模块,满足嵌入式检索需求。而其Atlas云服务将运维管理与数据库处理合二为一,让企业能够轻松地将AI数据“留存于内存”,支持在内存级别进行实时更新与检索。一旦企业在关键应用中采用了MongoDB,想要替换需要承担巨额迁移成本。此外,MongoDB的生态与合规性逐渐成熟,其开源社群成为技术创新的推动力。

投资潜力
MongoDB仍在亏损扩张期,追求更高增长而非当前盈利。公司持续在营销和研发上重投入,并看好未来AI业务。分析师普遍看好其成长性——根据StockAnalysis的数据,覆盖它的分析师一致评级为“强烈买入”,目标价在每股300美元左右。作为一家典型的高增长科技股,MongoDB具有较高波动性,投资时应做好风险控制。


Tesla (TSLA):数字化+实体化的AI先锋

Section titled “Tesla (TSLA):数字化+实体化的AI先锋”

业务模式与业绩
特斯拉不仅是全球最大的电动汽车制造商,也是快速崛起的AI和能源企业。2025年第二季度公司营业收入225亿美元(同比下滑12%);归属母公司净利润为12亿美元。这一季公司宣布在奥斯汀推出机器人出租车服务,且已交付了首辆完全自主驾驶汽车。此外,公司在上海推出首批Megapack能量储存设备,继续刷新能源存储部署纪录。特斯拉还透露,其自动驾驶研发完全基于车载摄像头(无雷达),并利用数百万辆在线车辆持续收集道路数据,通过神经网络不断优化模型。

技术与护城河
特斯拉的独特在于它拥有真正的端到端数据闭环:自上亿台电动车的实路数据训练AI模型,形成无人可比的感知能力;而大量部署在住宅和电网边缘的Megapack则可以与智能电网协同,实现能源的智能管理。即使面临传统汽车和科技巨头的挑战,特斯拉的巨量真实世界数据以及完全自主的研发与制造体系,使其无人驾驶和机器人项目(如Optimus机器人)具有难以复制的优势。事实上,特斯拉目前市值已突破1万亿美元,远超传统车企总和,体现了市场对其未来AI+能源愿景的预期。

投资潜力
特斯拉处于“未来型公司”估值体系之中,短期业务受车型更新和宏观环境影响较大,但长期回报取决于自动驾驶、机器人和能源业务的成熟度。其Robotaxi和FSD业务一旦规模化,将开启数千亿美元市值的新赛道。投资者需关注特斯拉的技术进展速度和监管环境,但由于其独特的数字化生态,目前特斯拉依然是AI投资组合中不可或缺的一环。


Axon Enterprise (AXON):公共安全的AI控制中心

Section titled “Axon Enterprise (AXON):公共安全的AI控制中心”

业务模式与业绩
Axon为执法与公共安全部门提供集硬件(如电击枪、执法摄像机)与软件(Evidence.com证据管理平台、实时调度、AI辅助工具)于一体的解决方案。2025年第二季度,公司营收6.69亿美元,同比增长33%。其中软件与服务收入29.2亿美元(+39%),设备销售收入37.6亿美元(+29%)。截至报告期末,公司年化经常性收入(ARR)约12亿美元,同比增长39%,净留存率124%。公司通过持续引入AI功能(如证据检索智能标签、实时翻译等)巩固产品差异化地位。

技术与护城河
Axon的生态系统已经成为美国执法机构的事实标准。立法层面多州将使用随身执法摄像头的数据作为程序规范(如法律要求录像提供情况),这使得Evidence.com平台成为换代成本极高的“企业操作系统”。一旦机构构建在Axon平台上,换用他家产品不仅需要重新修订规章制度,还需大规模培训人员。同时,Axon通过不断推出新设备(TASER 10、电击枪、车载摄像头等)与软件功能(基于云的实时监控、训练模拟、无人机系统等)形成协同,将硬件使用与软件订阅紧密捆绑。在AI应用方面,公司自诩为行业首家推出AI驱动警务工具的厂商,未来可利用机器视觉、大数据分析提升警务效率,进一步加深护城河。

投资潜力
Axon业绩连续加速增长,2025年营收指引也被上调。其宽广的客户基础(涉及数千家执法机构)和高黏性的订阅业务使得业绩具备高度可见性。截至8月29日,Axon市值约为587亿美元,在公共安全领域居于领先地位。虽然安防板块通常估值相对保守,但Axon结合了硬件、高级软件和AI的三重优势,长期成长潜力突出。


以上公司代表了AI发展第二阶段的核心平台。它们各自在数据处理、网络基础设施、安全防护、核心应用层面形成了深厚的壁垒。随着AI智能代理(agents)逐渐进入实体世界(从能源、电网到城市管理和安全执法),对这些平台的依赖将与日俱增。在投资上,这些标的虽有估值或运营波动风险,但从基本面看都具备显著的增长动力和护城河。提醒投资者:技术创新迅速,需动态跟踪业绩与竞争格局变化,理性配置资产。

Gemini 探索、ChatGPT 规划、Claude 执行:一个更强大的 AI 开发闭环

Gemini 做需求探索 → ChatGPT 做方案规划与评审 → Claude Code 生成与执行代码 → ChatGPT 复盘评审 → Gemini 总结输出。这套“分工明确”的协作链,能把日常开发从“想到—做到—评到—沉淀”串一遍。


  • 探索阶段 → Gemini:不设限抛想法,找你没注意到的模式。
  • 细化阶段 → ChatGPT:把发现转成可执行步骤,检查逻辑漏洞。
  • 整合阶段 → Claude Code:润色与整合,保证叙事一致。
  • 例子:做产品提案时,先问 Gemini 深层需求 → 让 ChatGPT 列出功能清单 → 找 Claude Code 集成为完整提案。

这把“三模型各有所长”说清楚了:Gemini 快、直觉强;ChatGPT 推理深;Claude 结构化和表达优秀。这和近几个月官方路线也挺契合:Google 把 Gemini 2.5 定位成“思考型”且提供快/省的 Flash 与更强的 Pro 版本;OpenAI 强调 ChatGPT 的推理与方案规划能力与深度研究;Anthropic 则把 Claude Code做成“能在终端里读库、改库、提 PR”的实干型工具。


  • Gemini:更像“直觉雷达” 原生多模态与“thinking models”设计,速度快、覆盖面广,在“把问题打开、捞线索”上很高效;2.5 系列把“思考预算”暴露出来,适合先广后深的探索。

  • ChatGPT:方案结构与推理深度 官方能力页与“深度研究”展示了逻辑分解、论证与整合外部资料的长项,拿来做技术方案、权衡取舍与评审很对路。

  • Claude Code:把事儿做了 定位就是“终端里的编码代理”,能读仓库、改代码、跑命令、走 GitHub Actions,把方案快速落地成 PR。

温馨提示:模型强弱会随版本迭代变化,上述分工是工程实用主义的“默认位形”,不是铁律。你随时能按项目类型微调。


日常软件开发闭环(带真实场景示例)

Section titled “日常软件开发闭环(带真实场景示例)”

我们以一个“给现有 App 增加订阅管理模块”为例,走一遍闭环。

目标:把“订阅管理”藏在用户话语背后的真实痛点捞出来,并形成用户旅程/边界条件。

示例提示(给 Gemini)

“我们要给 App 加‘订阅管理’,请从用户分群(新客/在订/流失边缘)、关键动机取消与挽留触点监管与支付合规四维度梳理潜在需求。给出 3 条我们容易忽略但高杠杆的需求假设,并为每条假设配一个可验证事件与可量化指标。”

为什么用 Gemini:适合快速扩散与枚举,还能把“thinking budget”拉高或降低,先广撒网后收口


目标:把上面的“假设—指标—场景”变成系统设计与里程碑

示例提示(给 ChatGPT)

“基于这 3 条高杠杆需求,输出技术方案草图: 1)后端数据模型与事件表(含主键、索引、冷热分层); 2)前端关键界面 Wireframe 与状态机; 3)风控/合规拦截点; 4)A/B 实验设计与样本量估算; 最后给出里程碑(两周一迭代)与风险清单(按概率×影响排序)。”

为什么用 ChatGPT:官方强调逻辑分解与方案起草,适配“把洞察落成结构化计划”。


三、代码生成与执行(Claude Code)

Section titled “三、代码生成与执行(Claude Code)”

目标:按方案直接写代码、改代码、跑任务、提 PR

怎么用

  • 终端装好 @anthropic-ai/claude-code 后,进入仓库直接对话;Claude 会读仓、建索引、定位依赖
  • 在 PR/Issue 里 @claude,可自动生成或修改代码并创建 PR。

示例命令(概念演示)

Terminal window
# 在项目根目录
claude "为订阅管理创建后端事件表、写迁移、补集成测试;若存在 Stripe Webhook 则挂载处理器。完成后开启一个 feature 分支并提交 PR。"

这一步的价值是端到端:读代码、改代码、跑脚本、走 Git 流程,全在一个回路里完成。


目标挑刺与修正。 把 Claude Code 生成的 PR 交给 ChatGPT,要求从复杂度、可测试性、回滚策略、异常路径做审核清单,再给改进 Diff建议。

ChatGPT 近来的“深度研究/长链条推理”能力,很适合做反方与 Reviewer


目标:把这轮迭代沉淀成复盘卡与知识库。 让 Gemini 读取 PR、Issue、CI 日志与监控告警,输出:

  • 一页复盘卡(目标-动作-结果-经验-遗留);
  • 面向运营/客服/法务的三份不同口径总结
  • 下轮探索清单自动化回归用例草稿。

Gemini 在多角色输出跨场景总结上,速度与覆盖面占优。


  1. 把分工写进仓库CONTRIBUTING.md 里写清:探索→规划→落地→评审→总结的默认工具与入口,减少团队认知切换成本。
  2. 把动作接到 CI/CD 启用 Claude Code GitHub Actions,实现“评论触发 PR 生成/修改”。
  3. 移动端或 Android 项目Gemini Code Assist 直接在 IDE 里解构错误、生成修复建议。
  4. 注意安全与合规 参考 Google 的生成式 AI 安全指引,尤其是用户数据最小化、可解释与回滚机制。

可复制的“闭环”清单(直接粘到你的团队 Wiki)

Section titled “可复制的“闭环”清单(直接粘到你的团队 Wiki)”
  • Gemini – 需求探索:用户分群、旅程、异常场景、关键指标。
  • ChatGPT – 方案规划:架构/数据/状态机、里程碑、实验设计。
  • Claude Code – 代码与执行:读库、改库、跑测试、开分支、提 PR。
  • ChatGPT – 评审:复杂度、可观测性、回滚、异常路径。
  • Gemini – 总结:一页复盘卡、多口径总结、下轮探索与回归。

把模型当“人”用,而不是当“工具箱”用。 直觉快的去探索,爱思考的去规划,能干活的去落地。 当每个环节都有人“负责”,你的开发节奏就顺了。

你觉得这套分工好用吗?你会怎么微调它?欢迎在评论区聊聊。

Gemini CLI Companion × VS Code/Cursor:把 gemini-2.5-pro 接入你的 IDE

把 Gemini CLI gemini-2.5-pro 接到 VS Code/Cursor 的终端里,让它看见你的工作区、理解你的选区、直接弹出原生 Diff 窗。更聪明、更稳、更省事。


还在“复制→粘贴→回车”的土法交互? 现在,命令行 = IDE 的超脑插件。 Gemini CLI 最新更新,直接打通 VS Code 集成终端: 读工作区、识别选中文本、原生并排 Diff、接受前可二次改。爽。


  • 上下文直连工作区:能“看见”你打开的文件,也能读你选中的那一段,建议更精准。
  • 原生全屏 Diff:CLI 给的修改,直接弹 VS Code 的并排 Diff 窗;先改再收,不会一键糊你盘。
  • 一键开关/ide enable 开,/ide disable 关,随时切换。
  • Cursor 基本可用:官方扩展标注兼容 VS Code 及其 fork(Cursor 属 VS Code fork),但个别场景需手动装扩展

以 VS Code 为例;Cursor 基本同理(需手动装扩展,见下文“常见坑”)。

  1. 先决条件
  • Gemini CLI 版本 ≥ 0.1.20
  • 必须从 IDE 的集成终端里运行 CLI(不是外部终端)。
  1. 一次性安装 在 VS Code 终端运行:
Terminal window
gemini

gemini-cli 安装 ide 集成:

/ide install

它会自动安装 Gemini CLI Companion 扩展。

  1. 打开集成
/ide enable

需要时关闭:

/ide disable

补充:扩展商店页面说明该扩展适配 VS Code 及 VS Code forks;若你用 Cursor,直接在商店手动搜索并安装“Gemini CLI Companion”。


推荐使用法(把它当“代码副驾 + 改码机器人”)

Section titled “推荐使用法(把它当“代码副驾 + 改码机器人”)”
  • 在文件里框选要改的段落
  • 终端里对 Gemini 说需求(或用你的常用提示模板)
  • 并排 Diff 弹出 → 你可先微调右侧改动 → 再点接受

适合:Bug 小修、接口对齐、重命名、日志统一等“细颗粒”改动。

  • 打开涉及的 2–3 个关键文件(让它“看见”上下文)
  • 给出“目标+约束”(如保留接口签名、通过现有测试)
  • 在 Diff 中分批落地,兼顾安全与节奏

适合:控制器瘦身、Hook 抽取、错误处理规范化。

  • 善用选区让它“少走神”
  • 复杂文件中,只喂关键函数/片段,减少跑偏

适合:长文件、历史包袱大的模块。


  • VS Code/ide install 自动装扩展 → /ide enable 即可。

  • Cursor

    • 扩展页手动安装“Gemini CLI Companion”(VS Code forks 兼容)。
    • /ide install 提示“No installer for Cursor”,属已知问题,按提示改为手动装
    • Cursor 对大多数 VS Code 扩展开箱支持(官方与多方测评均有表述),但以实际为准。

  • 扩展已装,但 CLI 说连不上 IDE

    • 可能是所需环境变量(如 GEMINI_CLI_IDE_WORKSPACE_PATH / GEMINI_CLI_IDE_SERVER_PORT)没就绪
    • 解决:确认扩展开启;重新开一个 IDE 终端再试。
  • Cursor 里 /ide install 失败

    • 信息:“No installer is available for Cursor
    • 解决:去扩展市场手动安装同名扩展。
  • 看不到原生 Diff

    • 确认在 IDE 集成终端里跑 CLI,而非外部终端。

  • 个人开发者:小步快跑、边改边看
  • 团队协作统一风格批量小改(日志、异常、命名、注释)
  • 旧代码治理:低风险“切片式”重构,边 Diff 边落地

本质上,它把“LLM 改码”变成可审可控的 IDE 原生流程。


  1. npm i -g @google/gemini-cli(已装请略)
  2. VS Code 打开项目 → 集成终端运行:/ide install/ide enable
  3. 打开 2–3 个关键文件,先小范围试改(选区驱动)
  4. 看到 Diff → 先微调再接收 → 提交带说明的 commit
  5. 写个团队规范:哪些改动先交给 Gemini,哪些必须走人工评审

官方博文与扩展页都有关键说明,建议收藏。


把命令行“硬核力”和 IDE “可视化”结合起来,效率和确定性同时提升。 今天就把 Gemini CLI 接上 VS Code/Cursor,让改动更可控、上下文更精准、协作更顺滑

Codex 发布 VS Code / Cursor IDE 插件

想把“会写代码的 CodeX GPT-5”塞进 VS Code?Codex IDE 这波真的到位。读/改/跑,一把梭。本文带你 10 分钟摸清亮点、安装步骤、以及最推荐的上手场景。


它是“能自己跑代码的代理”。 不是只会聊天的助手。Codex 能在你的工作目录里直接读文件、改代码、跑命令,还支持把大活儿丢到云端跑,改完再一键拉回本地验收。官方扩展已适配 VS Code / Cursor / Windsurf,macOS、Linux 体验稳定;Windows 建议配 WSL。

侧边面板同屏协作。 把 Codex 面板拖到编辑器右侧,选中一段代码就能少打字、给更准的上下文,响应更快更贴题。

三种“批准模式”,安全与效率自选。 默认 Agent 可在当前目录自动读/改/跑;需要出目录或联网会再问你。也能切到只聊天的 Chat,或完全放开权限的 Agent (Full Access)(慎用)。

云端代跑,现场旁观。 本地聊着聊着,一键“Run in the cloud”。大项目开新分支让它先干;小任务基于你本地改动收尾更顺手。云端上下文会延续回本地,拉回测一遍再合并。

可编排、可扩展。 扩展本体围绕开源 Codex CLI 打造,支持 MCP 与 AGENTS.md 规范,方便团队把“项目规则、构建步骤、验收流程”写给代理读。


① 安装扩展 从 VS Code Marketplace 搜 “Codex – OpenAI’s coding agent”,点安装即可;Cursor、Windsurf 同理。

② 登录 推荐用 ChatGPT 账号(Plus / Pro / Team / Edu / Enterprise 都包含)。也可用 API Key,但需要额外配置。

③(可选)装 CLI 想跑纯终端或做 CI,装 Codex CLI: npm i -g @openai/codexbrew install codex,随后 codex 直接开干。

Windows 小贴士:配合 WSL 体验更稳。


让 Codex 在 repo 里跑测试、搜调用链、总结模块职责,给你一张“开箱导览”。适合新人进组或接锅老项目。

Agent 模式下,直接让它新建文件、改路由、补单测、运行本地命令,你只需把关 PR。

交代目标与约束,让它分批提交改动。若耗时长、影响大,切到云端任务跑,边看 diff 边 review。

给日志与复现步骤,让它写探针脚本/本地压测命令并执行,产出对比报告。

在项目根加 AGENTS.md:建构/测试/代码风格/提交规范/安全要点写清。代理照单执行,减少“口头约定”。

把“需求 → 云端代跑 → 本地验收 → 合并”的流转定成团队 SOP,人人同一套动作,交付节奏更稳。


  1. 面板切 Agent
  2. 选中代码 → 说明意图 → 让它改并跑。
  3. 看 diff,不满意就“撤回/重做”。
  1. 说明目标与约束(分支、测试覆盖)。
  2. 选择环境 → Run in the cloud
  3. 期间可继续本地开发;完成后把改动拉回本地测一遍。

Chat,先把设计、接口、边界想清楚,再换回 Agent 落地实现。


  • 规范写进 AGENTS.md:安装命令、测试脚本、Lint 规则、提交模板、权限范围。代理就会按你写的来。

  • 按场景选模式

    • 方案讨论用 Chat
    • 局部改动用 Agent
    • 大范围/联网操作再考虑 Full Access
  • 云端任务做“重活”:迁移框架、批量重构、生成大型测试集。

  • VS Code 右侧面板固定,减少来回切窗。


  • 装完看不到? 在侧栏扩展区,可能折叠了;拖到右侧固定。

  • 计划在 Windows 用? 先上 WSL,体验更丝滑。

  • 怎么更新? 扩展会自动更新,也可在 IDE 扩展页手动检查。


  • 本地 = 快速改/跑Agent 模式够用。
  • 云端 = 干重活,保留上下文、改完拉回测。
  • 规则写进 AGENTS.md,团队协作质量上限被拉满。

  • “在 apps/web 新增 /pricing 页面,用 Tailwind,补 e2e 测试并 npm run test 通过后提交。”
  • “把 UserService 的 N+1 查询用 includes 优化,生成基准对比报告。”
  • “把 Monorepo 的 eslintprettier 升级到最新稳定版,修复所有 CI 报错再发起 PR。”

Zed 支持 ACP 接入 Claude Code 与 Gemini:给多位 AI 同事派活

Zed 把“代理”做成了标准接口(ACP),把命令行里的智能体请进了编辑器。Gemini CLI 率先接入;Claude Code 也可通过社区桥接跑在 Zed 的 ACP 上。未来,多 Agent 共存将是常态。


  • ACP = 给 AI 编程 Agent 的“LSP”。Zed 把协议开源(Apache),任何实现 ACP 的 Agent 都能在 Zed 里跑。
  • Gemini CLI 官方打样:Zed 0.201.5 起,Agent 面板内直接新建 Gemini 线程;未安装会自动装;需要 Gemini CLI ≥ 0.2.0
  • Claude Code 现在也能接:用社区开源桥接 acp-claude-code,一行配置就行,支持自动接受文件编辑权限模式。
  • 注意功能差异:Gemini CLI 目前仍缺少“历史消息编辑/从历史恢复/checkpoint/SSH 项目内使用”等能力,官方规划补齐。
  • 数据在本地:第三方 Agent 交互不经过 Zed 服务器;多缓冲区可视化改动、实时预览很香。

1)编辑器与 Agent 解耦 像 LSP 解耦语言服务一样,ACP 把“哪位 Agent 上场”这件事交给你选。同一个项目,随时切换不同 Agent 解决不同问题。

2)“真·命令行能力”,但在编辑器里可视化 Zed 在后台直接跑真实的 Gemini CLI 子进程,用 JSON-RPC 说话;你得到 CLI 的全部能力,同时拥有实时变更可视化多缓冲区审阅

3)开源协议 + 生态扩张 ACP 开源(Apache),Neovim 社区也已跟进支持 ACP 兼容 Agent。生态不是单机模式


准备 Zed: Stable 版 0.201.5+ 可直接用外部 Agent;cmd-? 打开 Agent 面板,右上角 + 新建 Gemini 线程。可加快捷键:

[
{ "bindings": { "cmd-alt-g": ["agent::NewExternalAgentThread", { "agent": "gemini" }] } }
]

准备 Gemini CLI:

  • 未安装时 Zed 会代为安装;已装则走 PATH。
  • ≥ 0.2.0;常见升级命令:
Terminal window
npm install -g @google/gemini-cli@latest
  • 登录可选:Log in with Google / GEMINI_API_KEY / Vertex AI

使用提示:

  • 支持 @ 文件 / 线程 / 符号 / 抓网页。
  • 暂不支持:历史消息编辑、从历史恢复、checkpoint、SSH 项目内使用。

一键把 Claude Code 接进 Zed(社区桥接)

Section titled “一键把 Claude Code 接进 Zed(社区桥接)”

现在你也能在 Zed 里用 Claude Code:社区实现的 ACP 桥接器 acp-claude-code。按下面加到你的 Zed 设置即可(支持自动接受编辑权限):

{
"agent_servers": {
"claude-code": {
"command": "npx",
"args": ["acp-claude-code"],
"env": {
"ACP_PERMISSION_MODE": "acceptEdits" // 自动接受文件编辑
}
}
}
}

这个桥接器实现了 ACP Agent,封装 Claude Code SDK,支持会话保持、流式输出、工具调用、权限模式 等;仓库声明 Zed 团队在做原生支持,当前以桥接形态使用。

备注:acceptEdits 仅自动接受“文件编辑”;若用 bypassPermissions绕过所有权限(不推荐,除非在干净环境做批处理)。

Claude Code 安装(如未安装):

Terminal window
npm install -g @anthropic-ai/claude-code

  • 大仓重构与批量修补:多缓冲区审阅 + 实时可视化,改动一览无余
  • 多 Agent PK:同题不同解。Gemini 先出重构方案,Claude Code 再补测试与提交信息。一个编辑器搞定。
  • 安全/合规团队:外部 Agent 交互不经 Zed 服务器,更安心。

  • 命令面板运行 dev: open acp logs,查看 Zed 与 Agent 的消息收发,定位问题非常直观。
  • 需要快捷开新线程?动作名:agent::NewExternalAgentThread

  • 今天:Gemini CLI 官方集成已上线。
  • 正在发生:社区已把 Claude Code 接入 ACP(桥接器开源活跃)。
  • 可预期:ACP 是开源协议,更多 Agent(如 Codex CLI、Cursor CLI 等)完全可以接入;这不是空想,Zed 博文明确鼓励第三方 Agent 与其他编辑器加入。

  1. Gemini 线路
  • 升级 Zed 到稳定版(≥0.201.5)。
  • 打开 Agent 面板新建 Gemini 线程;如需升级 CLI:npm i -g @google/gemini-cli@latest
  1. Claude Code 线路(桥接)
  • 安装 Claude Code:npm i -g @anthropic-ai/claude-code
  • 在 Zed 设置写入上面的 agent_servers 片段,建议 ACP_PERMISSION_MODE=acceptEdits
  1. 调试
  • dev: open acp logs 看日志,排查权限/会话问题。

  • 你的项目里,哪类任务更适合交给 Gemini?哪类交给 Claude Code?
  • 团队要不要设定权限策略(如只自动接受编辑,不自动执行命令)?
  • 要不要做一场“多 Agent PK”的内部学习会?

(Claude Code 待续)Zed 引入 ACP 接入外部 Agent(Gemini CLI 已上线)

Zed 做了一个 Agent Client Protocol(ACP),把“终端里的智能体 Gemini CLI, Claude Code”等接进编辑器里。第一个落地案例就是 Gemini CLI。你继续用熟悉的 CLI,Zed 负责把它嵌到面板里、看得见改动、还能多缓冲区审阅。官方还明说,ACP 是开源(Apache 2.0),欢迎更多 Agent 和编辑器加入生态。


  • ACP = 给智能体的“LSP”:像当年的语言服务器协议一样,把 Agent 和编辑器解耦,想换就换。
  • Gemini CLI 已可直接在 Zed 用:打开 Agent 面板即可新建线程;Zed 0.201.5+ 支持。
  • 真实 CLI、非“阉割版”:Zed 后台跑 Gemini CLI,通过 ACP 对话;可在编辑器里直观看到文件与改动。
  • 开箱就能干活:没装 CLI 会自动安装;已装则走 PATH;Gemini CLI 需 ≥ 0.2.0
  • 可自带任意 Agent:只要会说 ACP,改下配置就能接;内置调试日志。

很多人问:“我能不能在一个编辑器里切换多个 AI 编程 Agent?” Zed 这波给了答案:能。现在就能。ACP 把‘代理’和‘编辑器’分开了,Gemini CLI 率先打样,Neovim 也已跟进支持 ACP 的生态(Code Companion)。生态的门,打开了。


1)像 LSP 一样“解耦” 你不必为了换 Agent 换编辑器。任何讲 ACP 的 Agent 都能插进 Zed 的 UI,享受多缓冲区对比、语法高亮、以及对改动的实时可视化。数据只在本地,不经过 Zed 服务器。

2)“真实能力”+“编辑器体验” Zed 不是模拟一个“聊天窗口”,而是直接把 Gemini CLI 当子进程跑,用 JSON-RPC 通信。好处是:你得到 CLI 的全部能力,同时获得编辑器级的变更预览与导航

3)开放生态 ACP 开源(Apache 2.0),官方还号召其他编辑器加入;Neovim 的 Code Companion 已支持 ACP 兼容 Agent。这意味着未来你可以在不同编辑器里获得类似体验


现在能干什么?(Gemini CLI in Zed)

Section titled “现在能干什么?(Gemini CLI in Zed)”
  • 直接在 Agent 面板跑 Gemini CLI 线程(cmd-? 打开面板,右上角 + 号新建)。Zed Stable v0.201.5+ 支持。
  • 可 @ 引用文件、符号、历史线程,甚至抓取网页;但目前暂不支持回溯编辑历史消息、从历史恢复、checkpoint、安全壳(SSH)项目里用 Agent——这些“官方 Agent”特性正在补齐。
  • 键位绑定示例(你可以给 Gemini 分配快捷键):
[
{
"bindings": {
"cmd-alt-g": ["agent::NewExternalAgentThread", { "agent": "gemini" }]
}
}
]

(来自 Zed 文档示例。)


第 0 步:更新 Zed 确保 Zed 版本满足 Stable v0.201.5+(或更新的 Preview 版本)。

第 1 步:准备 Gemini CLI

  • 若你 未安装,Zed 会自动装一个版本;
  • 若你 已安装,Zed 直接用 PATH 里的;
  • Gemini CLI ≥ 0.2.0,版本太旧会报错;升级通常跑:
Terminal window
npm install -g @google/gemini-cli@latest

第 2 步:登录方式三选一

  • Log in with Google:浏览器弹出,Zed 不会看到你的 OAuth/Token
  • Gemini API Key:若设置了 GEMINI_API_KEY,Zed 直接使用;否则会提示你输入,并安全存到系统钥匙串
  • Vertex AI:已正确配置 GCP 环境的用户可选。

进阶:接入你自己的 Agent(ACP)

Section titled “进阶:接入你自己的 Agent(ACP)”

配置很简单

{
"agent_servers": {
"Custom Agent": {
"command": "node",
"args": ["~/projects/agent/index.js", "--acp"],
"env": {}
}
}
}

写个会说 ACP 的进程就能接。开发时可用 “dev: open acp logs” 打开调试视图,看 Zed 与 Agent 的消息收发。


1)大仓重构 / 批量修补 多缓冲区同时审阅改动,一眼看完;失败重试、重写补丁更顺手。

2)多 Agent 竞争上岗 今天你想让 Gemini CLI 修测试,明天换另一个 ACP Agent 做性能实验切换 Agent,不换编辑器

3)安全合规团队 真实 CLI 在本地跑,Zed 只是 UI 管理和协议转发;没有把你的代码传到 Zed 服务器。对内网仓、金融医疗等场景更友好。

4)从“命令行工作流”平滑过渡到“编辑器工作流” 你仍然是 CLI 的肌肉记忆,但获得编辑器级的变更可视化与导航,效率更稳。


  • 现在就能用:Zed 已在稳定版开启外部 Agent 支持,Gemini CLI 首发。
  • 生态在扩ACP 开源,官方也鼓励其他编辑器更多 Agent加入;Neovim 已通过 Code Companion 接了 ACP 兼容 Agent。
  • 可预期的下一个Claude Code、Codex CLI、Cursor CLI 等只要实现 ACP,就能无缝进 Zed。这是趋势判断(并非官方承诺),但从 ACP 的开放性与官方表态看,很可能会发生

  1. 升级 Zed ≥ v0.201.5;打开 Agent Panel(cmd-?)

  2. 终端安装(或让 Zed 自动装)Gemini CLI ≥ 0.2.0

    Terminal window
    npm install -g @google/gemini-cli@latest

    然后按提示登录。

  3. 绑定快捷键(可选):见上文 JSON 示例。

  4. 想接自研 Agent?把 agent_servers 写进设置,用 “dev: open acp logs” 调试


  • 在你的项目里开一个 Gemini 线程,让它补齐测试 + 出一版重构计划
  • 给团队演示:切换不同 Agent 解决同一个问题,现场对比效果。

你觉得 ACP 还适合干啥?评论区聊聊。


把 Claude Code 接上国产大模型:DeepSeek/GLM-4.5/Kimi K2

把 Claude Code 指向国产模型 API,开箱能写代码、能跑指令、能提 PR。

——别纠结,照这篇一步步抄就行。


最近大家都在玩 Claude Code。 问题是:公司网络/预算不方便直连海外,那还怎么玩?

好消息是,国内几家头部模型已经提供了 “Anthropic 兼容” 的接口。 把 Claude Code 的 Base URL + Key 改一改,就能直接用。 本文手把手接好 DeepSeek、智谱 GLM-4.5、Kimi K2,顺带给你一份避坑清单


Terminal window
# 需要 Node.js 18+
npm install -g @anthropic-ai/claude-code

安装完成,终端输入 claude 进入交互界面。官方支持 Node18+,交互里还能用 /config 调整设置。

  • DeepSeek:平台开通后在 API Keys 页面创建密钥。
  • 智谱 Z.AI(GLM-4.5):控制台生成密钥。
  • Kimi K2(Moonshot):控制台生成密钥。

直接在当前终端导出变量;重开终端会失效。要永久生效见下文“长期配置”。


方案 A:DeepSeek(官方提供 Anthropic 兼容)

Section titled “方案 A:DeepSeek(官方提供 Anthropic 兼容)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000

然后在项目目录里执行:

Terminal window
claude

DeepSeek 官方文档给出了 Anthropic 兼容路径推荐模型名、以及 长输出需加超时 的说明。

长期配置(zsh 示例):

Terminal window
cat >> ~/.zshrc <<'EOF'
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000
EOF
source ~/.zshrc

验证: 启动后输入 /status 看当前模型;也可以 echo $ANTHROPIC_BASE_URL 自检。


方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)

Section titled “方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Z.AI_API_Key"
# 可选:默认模型
export ANTHROPIC_MODEL="glm-4.5"

官方页面明确写了 Anthropic 兼容端点,并给出在 ~/.claude/settings.json 中切换 glm-4.5glm-4.5-air 的方式。

用 settings.json 切模型(可选):

{
"env": {
"ANTHROPIC_MODEL": "glm-4.5-air"
}
}

保存后新开一个终端再 claude,在界面里 /status 查看。


方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)

Section titled “方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)”

临时设置(全球域名更通用):

Terminal window
export ANTHROPIC_BASE_URL="https://api.moonshot.ai/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Moonshot_API_Key"
# 部分部署会把温度做0.6映射,保持默认即可

Moonshot 团队在 K2 仓库与技术博客多次强调 同时兼容 OpenAI / Anthropic;社区与指南也普遍使用 https://api.moonshot.ai/anthropic 作为 Base URL。注意:有些帖子写成 .cn 域名会失败,请以 .ai 为准或以控制台文档为准。


进入 claude 之后,建议先做 3 件事:

  1. 看模型:输入 /status 或问 “你现在的模型 ID 是?”
  2. 跑个命令/bash echo "hello cc" 看权限弹窗是否正常。
  3. 改个文件:让它在示例仓库里新建 README_CC.md,确认能读写。

这些都是 Claude Code 官方推荐的交互与配置方式。


Q1:401 未授权? 多半是 Key 没带对。Claude Code 支持两种鉴权位:

  • ANTHROPIC_API_KEY(发到 X-Api-Key
  • ANTHROPIC_AUTH_TOKEN(发到 Authorization: Bearer) 国产兼容端一般用 AUTH_TOKEN + 自定义 Base URL 更稳。

Q2:连不上 / 404?

  • Base URL 路径要包含 /anthropic(例如 DeepSeek、Moonshot 的兼容端)。
  • Kimi 用 .ai 域名更可靠,部分 .cn 会挂。

Q3:网页搜索 / WebSearch 工具没反应? 用的不是官方 Anthropic API 时,内置 WebSearch 工具不会提供。需要接 外部 MCP 搜索(Tavily/Brave/DuckDuckGo 等)。

Q4:长输出容易超时? DeepSeek 官方建议加 API_TIMEOUT_MS=600000(10 分钟)。

Q5:多模态/图片消息? 兼容端可能不完全支持所有 Anthropic 字段(比如图片/文档内容)。以厂商文档为准。


  • 保护仓库隐私:在 ~/.claude/settings.json 里把 .envsecrets/** 加入 permissions.deny
  • 敏感代码脱敏:公司代码先过一层 Git 镜像或删秘钥再让 AI 看。
  • 权限模式:默认保留确认弹窗。--dangerously-skip-permissions 仅在你完全信任环境时临时使用。

供应商Base URL必填环境变量推荐模型名
DeepSeekhttps://api.deepseek.com/anthropicANTHROPIC_AUTH_TOKENdeepseek-chat
智谱 Z.AIhttps://api.z.ai/api/anthropicANTHROPIC_AUTH_TOKENglm-4.5 / glm-4.5-air
Kimi K2https://api.moonshot.ai/anthropicANTHROPIC_AUTH_TOKEN(按平台路由即可)

以上均为厂商及官方渠道公开说明或实测常用配置。


不想每次 export?直接把环境变量写入 ~/.claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "xxxxx",
"ANTHROPIC_MODEL": "deepseek-chat",
"API_TIMEOUT_MS": "600000"
}
}

settings.json 是官方推荐的全局/项目分级配置方式,支持 env、权限、hooks 等统一管理。


接上国内模型后,Claude Code 依旧是那个“把灵感变代码”的生产力发动机。 哪家更顺手?DeepSeek 快、GLM-4.5 思考稳、K2 价格香,你现场对比就知道。 跑通一条,团队就能低成本试点 AI 代码协作,把效率真金白银落地。

你觉得哪个组合更顺手?有没有踩过别的坑?评论区聊聊你的实践

Google Translate 实时对话 + AI 口语练习,学英语更轻松

现在用 Google 翻译,不止“看懂”,还能听着聊跟着练。旅行、出差、外贸、交换生…都更省心了。


出门在外,最难的是开口。 这次 Google 给翻译 App 装上了两把“新齿轮”:实时对话翻译个性化口语练习。 实际用下来,像多了个随身“同声传译 + 私教”。

注意:截至 2025-08-27(亚太),实时对话功能率先在美国、印度、墨西哥上线;练习功能正逐步内测。支持70+ 语言的现场对话(含阿拉伯语、法语、印地语、韩语、西语、泰米尔语等)。


  • 一键“Live translate”:双语来回说、屏幕双语字幕、实时播报,能自动识别停顿、口音、语调,在机场、咖啡馆这类嘈杂环境也更稳。
  • AI 口语练习:按目标生成人机对话场景;听力点词 + 口语引导双模式;每日进度自动记录。英语↔️西/法/葡优先开放。
  • Gemini 加持:更强的语义理解、多模态和 TTS,自然度更高。

iOS 在 App Store 搜索 Google Translate → 安装 → 打开 App → 允许麦克风权限。

Android 在 Google Play 搜索 Google Translate → 安装 → 打开 App → 允许麦克风权限。 可在设置里打开 Tap to Translate(悬浮翻译气泡),在任意 App 里复制文字即可快译。

别混淆:Pixel 手机上还有系统级 Live Translate(设定里开关),与这次“翻译 App 内的 Live translate”不是同一入口。


怎么用 打开 Translate → 点 Live translate → 选两种语言 → 直接说。 App 会自动在两种语言之间切换,播报译文并显示双语字幕。

为什么更稳 采用新的语音/语音识别模型,能隔离环境噪声。在机场、地铁、夜市这种场景也能用。

当前可用地区:美国、印度、墨西哥(后续会扩)。

超好用场景

  • 学语言:和外教、同学练口语,App 实时字幕帮你 catch 重点。
  • 打车 & 路问路:对司机说中文,乘客听到外语;司机回外语,你这边播报中文。
  • 餐厅点单:描述忌口/过敏,App 自动口译,避免沟通尴尬。
  • 前台/海关/酒店 check-in:需要反复确认信息时,双语字幕可回看记录更安心。

口语练习:AI 私教,按你目标定制

Section titled “口语练习:AI 私教,按你目标定制”

入口:Translate App → Practice 怎么玩

  • 选水平与目标(旅行生存、商务沟通、日常寒暄)→ App 即时生成情景对练
  • 听力模式:听对话、点你听到的关键词。
  • 口语模式:开口说,遇到卡壳给提示
  • 进度记录:追踪每日练习曲线,逐步加难

已知开放

  • 英语使用者练西/法;西/法/葡语使用者练英语。其余语言按批次扩展中。

适合谁

  • 出行前 7 天速成:每天 10 分钟冲“机场/酒店/餐厅/问路”四大场景。
  • 外贸/客服:先把“自我介绍、价格条款、售后流程”练熟,再上桌谈。
  • 留学/交换:宿舍、课堂、社团话题一键生成,先在 App 里“演练”一遍。

实战技巧清单(体验直接拉满)

Section titled “实战技巧清单(体验直接拉满)”
  • 带一副有线/降噪耳机:收音更稳,双方更容易听清。
  • 收藏“高频句”:常用表达建成短语本,配合 Tap to Translate,聊天回覆更快。
  • 离线应急:文本/相机翻译支持离线语言包(先下载)。实时对话通常需联网
  • 别忘隐私:现场沟通别读银行卡/私密信息;公共场合注意外放音量。
  • 区分两个“Live Translate”:系统级(Pixel 设置)与 App 内入口不同,上手别找错。

推荐使用场景(从“好用”到“离不开”)

Section titled “推荐使用场景(从“好用”到“离不开”)”
  • 背包客 & 自驾:问路、订活动、修车救援,一机搞定。
  • 跨国项目沟通:站会、需求澄清、演示讲解,先用实时对话把信息跑通,再补文档。
  • 医疗就诊:症状描述、过敏史、用药频次,双语字幕可回看,减少误解。
  • 教学/志愿者:和外籍家长、来访学生交流更顺。
  • 跨境电商:旺季客服高峰,先用对话达成基本理解,再转书面处理。

  • 地区逐步开放:今天先到美/印/墨,其他国家会分批上线。关注 App 更新。
  • 语言覆盖与准确度:70+ 语言对话已可用;专业术语/口音极重时,建议复述 + 放慢
  • 学习与替代:AI 很强,但不能替代语言学习的文化与情感价值——想真正融入当地,还是要多听多说。

  • 打开 Translate → Live translate → 选语言 → 直接开聊
  • 打开 Practice → 设水平与目标 → 听力点词 / 口语引导 → 看每日进度。
  • Tap to Translate,聊天 App 里复制即翻。

这波升级,Google 把“会聊 + 会学”塞进了一个 App。 不管你是旅行、做外贸,还是备战交换生,现在就能少慌、多说、说对。 你打算先在哪个场景试一把?评论区聊聊你的“翻车或高光”瞬间

Claude Code 实战指南 1:CLI 常用命令选项

图形界面好用,但命令行更快、更稳、可编排。 Claude Code CLI 就是那把“顺手的刀”。 开个 REPL 聊天、管道一把梭、恢复历史会话、精细化权限……一行命令就行。

这篇文章,带你用最少的记忆成本,搞定日常 90% 的 CLI 用法。 能复制就不手打。能自动化就不手动。


  • REPL 模式claude 开聊,claude "…" 带着问题开聊。
  • 打印/管道模式-p 非交互,一次性出结果;配合 --output-format json/stream-json 可编排。
  • 会话管理-c 续聊最近;-r 选历史;--session-id 固定一个会话做长期任务。
  • 权限控制--permission-mode 精细开关,--allowedTools/--disallowedTools 白黑名单更稳。
  • 危险跳过--dangerously-skip-permissions 只在离线/沙盒用,线上坚决别开。

#1 REPL 模式:像终端里的“对话 IDE”

Section titled “#1 REPL 模式:像终端里的“对话 IDE””

最常用两种启动:

Terminal window
# 直接开 REPL
claude
# 带初始问题进入 REPL
claude "explain this project like I'm new here"

好用的小技巧:

Terminal window
# 连接唯一可用 IDE(有且仅有一个)
claude --ide
# 给系统提示加一段指令(不开配置文件也能临时生效)
claude --append-system-prompt "You are a careful code reviewer."

用法心法:临时探索、逐步重构、一步步跑通,REPL 很顺手。 配合 --model sonnet 或完整型号,切换模型同样丝滑。


#2 打印 / 管道模式:脚本化、一把过

Section titled “#2 打印 / 管道模式:脚本化、一把过”

核心就是 -p:从 stdin 读入 → 输出一次结果 → 退出。 适合脚本、CI、批处理。

Terminal window
# 单次问答
claude -p "explain this function"
# 处理文件内容
cat server.log | claude -p "summarize error patterns"
# 处理代码 diff
git diff | claude -p "write a clear PR description"

编排友好的输出格式:

Terminal window
# 机器可读
claude -p "summarize as JSON" --output-format json
# 实时流式 JSON(上游/下游都能流)
cat api.md | claude -p --input-format stream-json --output-format stream-json

组合拳示例(配 jq):

Terminal window
git diff | claude -p "summarize as JSON with keys: title, bullets" --output-format json \
| jq -r '"# \(.title)\n- " + (.bullets | join("\n- "))'

#3 会话管理:续聊、回溯、固化 ID

Section titled “#3 会话管理:续聊、回溯、固化 ID”

常用 4 连:

Terminal window
# 续聊最近一个
claude -c
# 续聊 + 一句指令后直接退出(非交互)
claude -c -p "Check for type errors"
# 选择历史会话(交互式列表)
claude -r
# 用会话 ID 恢复(支持非交互批处理)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "fix all linting issues"

固化会话 ID(做“长期项目管家”):

Terminal window
export CC_SID="12345678-1234-1234-1234-123456789abc"
claude --session-id $CC_SID "Keep maintaining the release plan"

实战建议:给每个长期任务固定一个 --session-id。上下文更稳定,历史更可追溯。


#4 权限模式:既要效率,也要边界

Section titled “#4 权限模式:既要效率,也要边界”

四种模式概念清晰:

Terminal window
# 默认模式:遇到风险行为会请求确认
claude --permission-mode default
# 只自动接受 “Edit” 类操作,写文件/改代码很顺
claude --permission-mode acceptEdits
# 计划模式:先出完整计划,再执行
claude --permission-mode plan
# 全面绕过权限(⚠️ 风险高,通常不建议)
claude --permission-mode bypassPermissions

非交互场景的“权限提示代理”(比如 CI 无法点确认):

让某个 MCP 工具来“代表你”处理权限提示。

Terminal window
claude -p --permission-prompt-tool mcp_auth_tool "run code review"

#5 危险跳过模式:只在离线/沙盒使用

Section titled “#5 危险跳过模式:只在离线/沙盒使用”
Terminal window
# 绕过所有权限检查(字面意思就很危险)
claude --dangerously-skip-permissions

什么时候可以用?

  • 本地无网络的沙盒容器
  • 演示/教学环境,只读文件系统或镜像快照可随时回滚。
  • 一次性临时环境,跑完就销毁。

什么时候别用?

  • 生产环境、含密钥的仓库、CI 写入真实资源。
  • 任何你不希望“自动执行 shell/写文件”的地方。

记一句:能不用就不用。真的要用,先隔离


#6 工具名称列表:白/黑名单更稳

Section titled “#6 工具名称列表:白/黑名单更稳”

精确控制哪些工具能被用,语法支持“子命令通配”。

Terminal window
# 允许:所有 git 子命令的 Bash、代码编辑器
claude --allowedTools "Bash(git:*), Edit"
# 禁止:所有 rm 子命令(哪怕允许了 Bash)
claude --disallowedTools "Bash(rm:*)"

CI 场景推荐: 仅开放必要编辑能力,封死危险命令。

Terminal window
claude -p \
--permission-mode acceptEdits \
--allowedTools "Edit" \
--disallowedTools "Bash(rm:*), Bash(curl:*), Bash(wget:*)"

#7 输入/输出格式:接上游、接下游,都优雅

Section titled “#7 输入/输出格式:接上游、接下游,都优雅”
Terminal window
# 输入文本、输出文本(默认)
claude -p "explain"
# 输入流式 JSON、输出流式 JSON
claude -p --input-format stream-json --output-format stream-json --replay-user-messages

--replay-user-messages 干嘛用? 在流式 JSON 管道里,把 stdin 的“用户消息”原样回放到 stdout,方便中间件对齐上下游事件流。


#8 进阶三件套:模型 / 目录 / 设置

Section titled “#8 进阶三件套:模型 / 目录 / 设置”
Terminal window
# 模型与回退
claude --model sonnet --fallback-model opus -p "explain the migration plan"
# 允许访问额外目录 & 指定工作目录
claude --add-dir ../apps ../lib --cwd ./apps/web
# 一把加载设置(文件或 JSON 字符串)
claude --settings ./cc.settings.json

示例 cc.settings.json

{
"verbose": true,
"maxTurns": 8,
"appendSystemPrompt": "Prefer clear diffs and small PRs."
}

Terminal window
# 开 REPL
claude
# 带问题开 REPL
claude "help write a release note"
# 单次问答(脚本化)
claude -p "explain this function" --output-format text
# 处理日志
cat logs.txt | claude -p "find top 5 recurring errors"
# JSON 输出给下游
git diff | claude -p "summarize as JSON" --output-format json
# 续聊最近
claude -c
# 恢复指定会话(非交互)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "finish the refactor"
# 固定会话 ID
claude --session-id 12345678-1234-1234-1234-123456789abc
# 计划模式(先出方案再执行)
claude --permission-mode plan
# 白名单工具(只允许编辑)
claude --allowedTools "Edit"
# 黑名单危险命令
claude --disallowedTools "Bash(rm:*)"
# ⚠️ 仅沙盒使用
claude --dangerously-skip-permissions

命令行的价值,就两点:可编排。 REPL 处理探索式任务,-p 负责自动化与流水线。 会话可追溯、权限可控、输出可编排,就能把 Claude Code 融进你的日常工程节奏。

愿你少敲十倍命令,多交付十倍结果。

你在用哪种组合最好用? 欢迎在评论区分享你的“命令流”,我会挑几条做成海报,送你一套 Vibe Coding 快速上手包。


  • 你更常用 REPL 还是 -p?为什么?
  • 你会在什么场景打开 acceptEdits
  • **有没有一条让你“直呼好用”的管道命令?**贴出来一起抄作业。

Claude Code 实战指南 1.5:Claude Code 会话管理继续接着聊

**教你用 --continue / --resume / --session-id / 非交互模式 四件套,稳定续上上一轮思考,把多任务协作与自动化玩明白。


写代码像健身——最怕中断。 昨天和 Claude Code 正聊到一半的重构方案,今天进来就忘了哪一步?多开几个任务就“串味”?脚本里跑两轮就丢上下文?

这篇就讲清楚:Claude Code 的会话(Session)怎么管,怎么一键续聊、精确点聊、并行多聊、脚本里接着聊。让你的 Vibe Coding 节奏不掉线。


你需要会话管理的 4 个真实场景

Section titled “你需要会话管理的 4 个真实场景”
  • 继续昨天的坑:直接接着上次那段对话继续推进。
  • 同时搞两条线:一个分支修 Bug,一个分支做新功能,互不干扰。
  • 脚本自动化:CI/脚本里多轮交互,不丢上下文。
  • 隐私与成本:会话本地保存与摘要成本心里有数。

1)最快速:继续最近的对话(--continue / -c

Section titled “1)最快速:继续最近的对话(--continue / -c)”
  • 命令:

    Terminal window
    claude --continue
    # 或
    claude -c
  • 用法心法:啥也不选,立刻续上“最近一次”会话,连环境都不用重配。

  • 小技巧:要在脚本里续上最近会话并输出结果:

    Terminal window
    claude --continue --print "继续刚才的重构,补齐单测"

    --print 等价 -p,走非交互输出)


2)更精准:恢复指定会话(--resume / -r

Section titled “2)更精准:恢复指定会话(--resume / -r)”
  • 交互式“会话选择器”:

    Terminal window
    claude --resume

    会弹出历史会话列表(开始时间 / 首条提示或摘要 / 消息数),方向键选择即可。适合一天切好几条线的同学。

  • 直接用 会话 ID 恢复:

    Terminal window
    claude --resume 550e8400-e29b-41d4-a716-446655440000 "把 API 抽象层改完"
    # 或
    claude -r 550e8400-e29b-41d4-a716-446655440000 "继续写集成测试"

    适合 脚本/自动化 精确点名。


3)脚本必备:拿到 session_id + 非交互多轮

Section titled “3)脚本必备:拿到 session_id + 非交互多轮”

思路:先启动一轮拿到 session_id,后续每步都用 --resume $sid 串起来。

Terminal window
# 第一步:起一个会话并抓 session_id(JSON 输出里自带)
sid=$(claude -p "开启重构会话:先列出风险点" --output-format json | jq -r '.session_id')
# 第二步:多轮非交互续写
claude -p --resume "$sid" "按照上一步计划,先改 utils/date.ts"
claude -p --resume "$sid" "补充 ts-jest 配置与单测样例"
  • 关键点:--output-format json 的返回体里包含 session_id 字段;也可用 --no-interactive 配合 --resume 做纯非交互续写。

⚠️ 排雷:有开发者反馈,在非交互里反复用 --continue 可能会生成新的 session,导致上下文“看着像合上了”,其实换了 ID。自动化建议固定用 session_id + --resume


4)在 REPL 里也能选:/resume 指令

Section titled “4)在 REPL 里也能选:/resume 指令”

进入交互 REPL 后,直接敲:

/resume

就能列出会话并恢复。这个入口与 --resume/--continue 同源,触发同一套 SessionStart/Resume 逻辑。 (Hooks 文档里明确写了 resume 匹配来源:--resume--continue/resume

顺手再记两个常用键:

  • Esc Esc:编辑上条消息
  • ↑ / ↓:翻阅本会话历史 用来微调上一轮提问,贼高效。

并行不串台:用 Git Worktree 隔离多会话

Section titled “并行不串台:用 Git Worktree 隔离多会话”

同时推进“修 Bug”和“开新功能”?用 git worktree 把仓库拉成两个工作目录,在各自目录里分别开 Claude Code,上下文天然隔离

Terminal window
git worktree add ../proj-feature-a -b feature-a
git worktree add ../proj-bugfix bugfix-123
cd ../proj-feature-a && claude
cd ../proj-bugfix && claude

官方工作流里强推这招,会话和文件状态互不影响


隐私 & 成本:会话保存与摘要消费

Section titled “隐私 & 成本:会话保存与摘要消费”
  • 本地保存:客户端会将会话在本地保留(默认可配置,常见上限 30 天),用于 --resume。企业合规可以设为零数据保留。
  • 后台摘要:为了让 --resume 有“可选列表”和摘要,Claude Code 会做后台会话摘要,这会产生少量 Token 开销。

Bash 版多轮模板

Terminal window
# 开会话并保存 ID
sid=$(claude -p "准备发布:生成变更清单" --output-format json | jq -r '.session_id')
# 后续步骤都续这个会话
claude -p --resume "$sid" "生成 release note,中文+英文"
claude -p --resume "$sid" "检查 CI 失败原因并给出修复命令"
claude -p --resume "$sid" "最后输出 checklist.md"

--print/-p 非交互;要强制非交互也可 --no-interactive

交互式快速入口

Terminal window
# 最近一次
claude --continue
# 选择历史
claude --resume
# 在 REPL 里
/resume

进阶:把会话钩到团队工作流(可选)

Section titled “进阶:把会话钩到团队工作流(可选)”

如果你在项目里配了 Hooks,例如 SessionStart/SessionEnd恢复会话时也会触发。这意味着你可以在恢复瞬间自动加载最新 issue、变更摘要或安全检查


会话管理不是“锦上添花”,而是让灵感不断档的底层设施。 把 --continue 用在临时续聊,把 --resume + session_id 用在长期、可回放的任务,用 worktree 做物理隔离,再把这套搬进脚本,你的 Vibe Coding 就会从“灵感速写”进化到“可复盘的创作流水线”。

你觉得呢?你现在最需要哪种会话管理姿势?评论区见。

Claude Code 实战指南 1.10:用 claude code --permission-prompt-tool 把权限“外包”给你的 MCP 工具


是不是常被权限弹窗打断思路? 想把 Claude Code 放进 CI/CD、夜间批处理、远程容器里跑,又不敢开“全放行”?

答案就是这个开关:--permission-prompt-tool 它把“是否允许用某个工具”的决定,交给你指定的 MCP 工具 来做。支持按需审批、审计留痕、条件放行,还能跑在纯命令行的无人值守模式。CLI 文档里明确写了它的用途:在非交互模式下由 MCP 工具处理权限提示。**

权限顺序也很清楚:先看 settings.json / --allowedTools / --disallowedTools。有结论就直接执行或拒绝。否则才调用你传入的 --permission-prompt-tool 官方 SDK 文档给出了完整流程与返回格式要求。**


  • 它是什么:一个把“是否放行工具调用”的决定交给 MCP 工具的桥。适合自动化、无人值守、安全合规。**
  • 怎么判定:静态规则优先(settings/allowed/disallowed),没命中才调用你的权限代理。返回 allow/deny 的 JSON。**
  • 最佳场景:CI/CD、批处理重构、远程容器/Server、IDE/插件联动、企业级合规审计。**
  • 对安全团队的意义:可审核、可记录、可细粒度放行,符合 IAM + 最小权限 思路。搭配 MCP 白名单更稳。**

把“要不要放行这次工具调用”的问题,转发给你指定的 MCP 工具。 这个 MCP 工具可以接入审批、黑白名单、时段策略、Slack 人工确认、风控打分……你来定规则。CLI 与 Headless 模式都支持这一机制。**

Claude Code 的三层权限检查机制:

先检查这些预设的权限规则

  • settings.json 文件中的配置
  • 命令行参数 --allowedTools
  • 命令行参数 --disallowedTools

如果第一层有明确答案 → 直接执行或拒绝 如果第一层没有规则 → 进入第三层

调用你指定的 MCP 工具来做决定 --permission-prompt-tool your_custom_tool

假设 Claude 要执行 Write 工具修改文件:

情况1:静态配置已决定

settings.json
{
"allowedTools": ["Write", "Read"]
}

结果:直接允许,不调用 MCP 工具

情况2:静态配置禁止

settings.json
{
"disallowedTools": ["Write"]
}

结果:直接拒绝,不调用 MCP 工具

情况3:静态配置无规则

settings.json
{
"allowedTools": ["Read"]
// 没有关于 Write 的规则
}

结果:调用 —permission-prompt-tool 指定的 MCP 工具询问

用代码逻辑表示

def check_permission(tool_name):
# 第一层:检查静态配置
if tool_name in settings.allowedTools:
return True # 直接允许
if tool_name in settings.disallowedTools:
return False # 直接拒绝
# 第二层:没有明确规则,调用 MCP 工具
if permission_prompt_tool:
return permission_prompt_tool.ask_permission(tool_name)
# 默认行为(通常是询问用户)
return prompt_user(tool_name)

企业环境:大部分工具预先配置,特殊情况动态审批

Terminal window
claude code --allowedTools "Read,Grep,LS" \
--disallowedTools "Bash:rm,Bash:sudo" \
--permission-prompt-tool enterprise_approver \
"analyze codebase"
    1. Claude 想用 Read → 静态允许 ✅
    1. Claude 想用 Bash:rm → 静态拒绝 ❌
    1. Claude 想用 Write → 没有规则,调用 enterprise_approver 询问 ❓

这种设计的好处是:

  • 性能:常用工具静态配置,快速决策
  • 灵活性:特殊情况可以动态处理
  • 安全性:默认拒绝,明确授权才能使用

  • 诉求:流水线里跑代码修改、测试修复、生成报告,不想被权限卡住。
  • 做法
Terminal window
claude -p "fix flaky tests and commit" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config ci-tools.json \
--permission-prompt-tool mcp__sec__approval_prompt \
--output-format json
  • 效果:凡是静态规则没覆盖的调用,交给 mcp__sec__approval_prompt 远程审批。流水线不中断。**
  • 诉求:夜间批量改文件、跑格式化、生成迁移 PR。
  • 做法:把“对关键路径的编辑”设为需审批,其余静态放行。发生变更时自动记录审计日志。
  • 依据:工具级/路径级细粒度规则可以在 IAM 里定义,如 Edit(docs/**)Bash(npm run test:*)。**
  • 诉求:没有交互 UI 的 Docker/SSH 环境也能安全放行必要操作。
  • 做法:在 Headless(非交互)模式下启用权限提示工具:
Terminal window
claude -p "build and publish image" \
--permission-prompt-tool mcp__guard__prompt \
--mcp-config /etc/mcp/servers.json
  • 来源:Headless 文档明确标注 --permission-prompt-tool 只在 --print 非交互模式下生效。**
  • 诉求:把 IDE 里的审批弹窗交给一个 GUI 代理或 Slack Bot,让同事点“允许”。
  • 做法:MCP 工具弹出 GUI 或发 Slack 卡片,点击后回传 allow/deny
  • 安全补充:MCP 服务器要可信、可审计,符合团队安全策略。**

工作原理(官方机制落地翻译)

Section titled “工作原理(官方机制落地翻译)”
  • 优先级:先检查 settings.json 与命令行的 --allowedTools / --disallowedTools。能决策就直接放行或拒绝;否则再调用你传入的 MCP 工具。**

  • 返回格式(必须 JSON 字符串)

    • 允许:

      {"behavior":"allow","updatedInput":{...}}
    • 拒绝:

      {"behavior":"deny","message":"..."}
    • updatedInput 可把人机协作后的新输入回传给模型(比如人工修改过的 diff)。**


const server = new McpServer({ name:"sec-approval", version:"0.0.1" });
server.tool(
"approval_prompt",
"Return allow/deny for tool use",
{ tool_name: z.string(), input: z.object({}).passthrough() },
async ({ tool_name, input }) => {
const allow = await riskCheck(tool_name, input); // 你的风控逻辑
const payload = allow
? { behavior: "allow", updatedInput: input }
: { behavior: "deny", message: "Policy denied by SEC team" };
return { content: [{ type: "text", text: JSON.stringify(payload) }] };
}
);

启动:

Terminal window
claude -p "migrate configs safely" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config security-tools.json \
--permission-prompt-tool mcp__sec-approval__approval_prompt

Headless + CLI 的用法与参数对照见官方文档。**

async def approval_prompt(tool_name: str, input: dict):
ok = policy_match(tool_name, input)
if ok:
return json.dumps({"behavior":"allow","updatedInput":input})
return json.dumps({"behavior":"deny","message":f"Denied {tool_name}"})

官方 SDK 文档也给出了 Python/TS 的结构与字段要求。**


  • --dangerously-skip-permissions粗暴跳过所有提示,官方明确“谨慎使用”。**
  • --permission-prompt-tool可控可审计可扩展,符合企业安全与合规。还能按目录/命令做细粒度规则,如 Bash(npm run test:*)Edit(docs/**)。**

最佳实践清单(企业可直接落地)

Section titled “最佳实践清单(企业可直接落地)”
  1. 三层权限静态规则优先(settings/allowed/disallowed)→ MCP 代理兜底默认拒绝。**

  2. MCP 白名单: 仅连接受信任的 MCP 服务器,并通过仓库内的配置纳管。**

  3. 细粒度匹配: 用 Bash(…)Edit(…)mcp__servermcp__server__tool 做精确授权;MCP 不支持通配符。**

  4. 审计与回放: 在权限代理里落日志、打审计标签,配合 --output-format json 保存流水。**

  5. 风险隔离: 可在容器/DevContainer里运行,减少误操作影响面。**


  • 工具名写法不对:MCP 名称是 mcp__<server>__<tool>,只写 mcp__<server> 代表允许该服务器所有工具。通配符不支持。**
  • 在交互模式里期望它也弹:该开关主要用于 --print 的非交互模式。**
  • 把它当万能钥匙:基础权限请放在 settings / allowed / disallowed 里,减少调用次数与网络风险。**
  • 忽视 MCP 安全:第三方服务器要审慎评估、最小权限接入。**

允许常用只读 + 拒绝危险命令 + 权限代理兜底

Terminal window
claude -p "refactor and open PR" \
--allowedTools "Read,Grep,LS" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config team-mcp.json \
--permission-prompt-tool mcp__approver__prompt \
--output-format json

按命令粒度放行

Terminal window
claude -p "run tests" \
--allowedTools "Bash(npm run test:*),Read" \
--permission-prompt-tool mcp__approver__prompt

以上参数与权限模式、工具匹配写法,均见官方 CLI / IAM / Headless 文档。**


--permission-prompt-tool 不是单个开关,而是**企业级“权限中台”**接口。 你可以把风险判断、人工审批、操作留痕,全部塞进一个 MCP 工具里。 自动化不必冒险,效率与安全两手都要硬。

你觉得这样的权限设计,够满足你们的合规要求吗? 欢迎在评论区聊聊你想怎么接 Slack/飞书/工单系统做“点一下才放行”。

川普改造美联储:市场究竟担心什么?

美国总统川普近期不断挑动美联储的神经。一方面,他在公开场合要求美联储主席鲍威尔尽快降息,甚至扬言“鲍威尔越早走人越好”;另一方面,川普已经提名白宫经济顾问委员会主席斯蒂芬·米兰(Stephen Miran)出任美联储理事,并通过社交媒体宣布即刻罢免美联储理事丽莎·库克(Lisa Cook)。此种史无前例的连番举措立刻引发市场震荡:投资者抛售了美国股票、债券和美元,金价纷纷飙升;与此同时,美联储“独立性”受损的担忧不断升级。

美联储“独立性”:相对而非绝对

Section titled “美联储“独立性”:相对而非绝对”

严格来说,美联储的独立性是相对的、逐渐形成的制度安排。虽然如今我们习惯将美联储视为不受政府短期干预的“钢铁长城”,但历史上并非如此:美联储正式独立要到1951年才实现,而且直到1980年代沃尔克担任美联储主席时通过高利率遏制恶性通胀,美联储独立性的声誉才真正树立。分析指出,川普对美联储官员的持续攻击正成为数十年来对央行独立性最大的挑战——央行独立性一直被视作抑制通胀、维护全球金融稳定的关键。不过,观察人士认为,这次事件最终的影响还要看结果本身:只要美联储能继续维持经济稳定、控制好通胀,市场可能逐渐接受新的政策组合;一旦政策放松过度、出现通胀或债务危机,市场就会以加大风险溢价来作出惩罚。

今年4月,川普在社交媒体上再度向鲍威尔施压,要求美联储立即降息,并称“鲍威尔行动太慢,越早走人越好”。川普的这些言论令市场大为不安——报道称,投资者担心川普将解雇鲍威尔,纷纷抛售美国股票、美债和美元,导致市场短期剧烈波动。然而,鲍威尔本人也多次表态,美联储不会屈从政治压力,降息决策仍以抗通胀为主。

8月7日,川普正式提名斯蒂芬·米兰(Stephen Miran)出任美联储理事。米兰被认为是川普新一届政府贸易政策的重要策划者,在政策观点上偏鹰派,主张更迅速地降息刺激经济。分析称,此前川普在七人理事会中已有2位同调者,如果再成功补入米兰,川普阵营将可能掌控美联储理事会的多数席位。财政部长贝森特(Scott Bessent)在接受采访时也直言,川普将很快拥有美联储理事会多数席位,这“将改变美联储的话语权”。这意味着未来货币政策立场可能更加偏向川普的意愿。

8月25日深夜,川普在其社交媒体上发布公开信,宣布“立即”撤销库克的美联储理事职务。库克是拜登提名的首位非洲裔美联储理事,按规定任期至2038年。川普信中指责库克在申请房贷时虚报住所等罪名,声称已有“充分理由”将其罢免。这是美联储百余年历史上首次有理事被总统罢免的先例,库克方面已表示将通过法律途径坚决抗争。分析人士指出,总统虽有权罢免Fed理事,但法律要求“正当理由”,不能仅凭政治分歧;换言之,即便此举引发宪法争议,最终成败仍可能通过司法程序决定。

市场担忧:避险情绪与实际风险

Section titled “市场担忧:避险情绪与实际风险”

川普上述动作令市场短期惊慌,但更深层的担忧在于:未来货币政策走向是否偏离其原本使命?投资者真正关心的,是美联储在新格局下能否继续控制通胀、保持经济增速,而不仅仅是“独立性”这一个口号。近期多家机构都提醒,若市场预期美联储降息过猛,反而会削弱央行抗通胀的公信力。事实上,当下美国仍处于高债务、潜在通胀风险下——关税政策可能抬高物价、财政赤字持续发行新债、再加上潜在的新一轮减税或刺激措施,都可能推高经济的中长期借贷成本。因此,即便短端政策利率下降,市场多有观点认为长期利率不降反升:投资者担忧,一旦美联储独立性受损、过度降息,大幅扩张性货币环境最终会推高通胀预期与债券收益率。正如一家投顾指出:“更廉价的资金会助推经济和美元走弱,但同时显著推高通胀”。

在债市上,这种担心尤为明显。近期2年期与30年期美债收益率之差已经跃升至2022年初以来高位,表明投资者一面看好短期政策放松、短端利率下行,一面担心长期通胀回升、要求更高溢价。汇率方面,8月底川普行动宣布后,美元指数也出现下跌。市场分析认为,只要美国仍旧位居全球领导地位,美元和美债作为储备资产的地位不会轻易动摇,但如果政策冲击加剧,短期避险抛售也在情理之中。此外,信用评级机构标普和穆迪近期已警告,如果美联储的独立性遭到“严重破坏”,美国主权信用评级可能面临下调,这将进一步推高美国政府融资成本。

短期来看,川普的激烈表态和举措确实加剧了市场的谨慎情绪。股债汇市场出现了“冰火两重天”:股指期货微跌,多空博弈加剧;美元和中长期美债收益率波动加大。但也有人认为,这种急躁的政策操作未必会持续。特朗普历来言行有时“言过其实”——早在4月他声称会解雇鲍威尔后不久就反口说“无意解雇”;同样,此次对库克的行动也可能在司法挑战下面临变数。此外,贝森特等理性派人士的存在,意味着未来政策方向未必完全出乎意料。换句话说,虽然川普政府正试图往联储理事会里安插“忠诚派”,但市场往往最终还是看结果:如果这些变动能够真正提振美国经济、降低债务负担,宽松的货币政策至少在短期内也会推高风险资产;反之,一旦通胀或债务问题失控,则会迅速被市场所惩罚。正如摩根士丹利所言,市场最看重的,是经济基本面和政策的效果,而不是政治风声本身。

综上所述,市场对川普“改造”美联储的反应分为两个层面:一是对美联储独立性暂时受损的担忧,包括信用评级和长债收益率上升的风险;二是对政策最终效果的关注,即看这些“新面孔”能否稳住通胀、刺激增长。短期震荡不可避免,但只要美国经济基本盘稳健、财政政策有配合,全球风险资产并不会轻易丧失吸引力。后续仍需关注美联储官员的人事变动进程以及美国财政状况演变,因为真正左右市场走向的,终究是经济基本面和结果,而非单一事件。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

期待今晚英伟达二季度财报公布

随着AI热潮持续,英伟达(NVIDIA) 也备受瞩目。今晚美股盘后,英伟达将公布二季度财报。结合台积电、富士康、京元电等供应链对AI服务器需求的预示,市场普遍预期成绩依旧强劲。投资者最关心的核心要点包括:

  • 毛利率:英伟达能否借产品组合优化和成本杠杆效应,让非GAAP毛利率重回约75%的水平?
  • 新品周期:Blackwell Ultra(B300系列)GPU产能爬坡情况如何?下一代“Rubin”架构何时登场?
  • 中国市场:针对中国市场的H20产品影响有多大?是否会有新版中国特供芯片推出?
  • 财报指引:管理层给出的三季度及全年指引是否强劲?此前英伟达已开始偏保守地引导预期,这次会怎样?指引强弱决定市场对AI主线的信心和短期股价走势。

下面我们逐一分析这些问题。

2023年底到2024年初英伟达的非GAAP毛利率曾在76%-79%之间高位盘整(Q4 FY24-Q1 FY25分别为76.7%、78.9%)。进入2024年下半年以后,随着产品组合变化,毛利率出现回落:Q2 FY25约75.7%,Q3 FY25回到75.0%,Q4 FY25降至73.5%。今年第一季度(Q1 FY26),由于中国市场H20库存冲击,非GAAP毛利率骤降至61.0%。

事实上,公司财报指出,如果剔除这次H20库存减记,一季度非GAAP毛利率本应约71.3%。

市场预期本季毛利率会有所修复。根据财报展望,英伟达预计Q2财季非GAAP毛利率约为72.0%(GAAP毛利率71.8%)。管理层表示将持续努力,年内争取让毛利率回升到约75%的中高位水平。从以上数据看,若本季业绩符合预期,毛利率曲线将出现V型回升趋势,但要达到75%仍需留意高配GPU供给和成本控制进展。因此,市场将密切关注财报中对产品组合、库存及成本项目的说明,以及全年毛利率指引。

产品线:Blackwell Ultra加速,Rubin蓄势

Section titled “产品线:Blackwell Ultra加速,Rubin蓄势”

英伟达CEO黄仁勋已确认,Blackwell Ultra(代号B300系列)仍在稳步放量。行业报道称,黑白(Blackwell)超算加速卡将在今年下半年推出,性能比现有产品大幅提升。同时,他表示“下一代(GPU)被称为Rubin”,合作伙伴已经在为Rubin架构做准备。换言之,未来两年内数据中心GPU将经历从Blackwell到Vera Rubin的换代。

对投资者来说,本次财报发布后,重点会看B300系列产品产能情况,以及公司是否提及未来Rubin GPU的开发进展等。上述路线图显示,Rubin平台将在2026年推出8堆栈HBM4显存版,到2027年进一步扩展到12堆栈版。如果英伟达提到Rubin的里程碑或试产进展,也将被市场视为前瞻信号。总的来说,只要Blackwell Ultra供货加快、Rubin前景明朗,就能进一步巩固公司在AI硬件赛道的领先地位。

中国市场一直充满不确定性。今年4月,美国出台新管制令,暂停向中国出口英伟达最新高端GPU,使面向中国设计的“H20”版本暂时停产。根据报道,8月22日有消息称英伟达已通知相关供应商暂停H20产品生产。英伟达随后回应称,这只是正常供应链调整,并重申H20并非军用产品,中国有足够国产芯片满足需求。

据了解,H20芯片是特别针对中国市场的版本,2024年曾大规模出货。初期版本搭载96GB HBM3显存,带宽达4.0TB/s;后期升级为141GB显存,NVLink带宽900GB/s,FP16算力高达148TFLOPS。不过今年4月禁令生效后,H20交付被迫中断。直到7月黄仁勋访华前后,美国才重新批准H20芯片出口许可,生产和出货有望恢复。但需注意,此次开放需要向美方报备用户清单等,仍给客户带来顾虑。

有业内传闻称,英伟达正计划推出一个针对中国的新“特供”芯片,代号可能是B30A。这款芯片据传算力约为主线Blackwell产品的一半。如果这一消息属实,说明英伟达试图用性能折衷的方案满足中国市场需求,同时应对出口限制。市场将密切关注财报中对中国市场出货量和产品组合的描述,以及是否有类似信息发布。总体而言,中国的不确定性可能让英伟达暂时对中国市场指引更为谨慎,这也是本次财报需重点留意的风险点之一。

对于英伟达这样的成长股,最重要的信号之一是未来指引:公司对下季度及全年的预估。过去一年中,由于市场对AI景气极度乐观,英伟达已多次开始使用“预期管理”策略,给出相对保守的指引以降低市场期待。2024年Q2之后每次财报都出现过类似情形。

今晚财报后的指导内容尤为关键。一方面,如果公司对第三季度及全年的营收和毛利率做出强劲指引,表明AI需求依旧旺盛,市场信心将增强;另一方面,如果指引显得保守,则可能短期打压股价。特别是在中国市场受限的大背景下,英伟达可能会在财报电话会议上谨慎看待短期业绩。投资者将密切聆听管理层对下半年的需求状况、库存清理程度以及研发投入的展望。

目前可参考的是一季度财报中对Q2的指引:营收预计45亿美元上下(已剔除约80亿美元的H20损失),非GAAP毛利率约72%。未来几个季度是否能接近此前预期的“75%毛利率”和持续翻番的营收增速,将是市场聚焦的焦点。如果指引相对稳健或高于预期,可视作AI趋势的延续;如果偏低,则需警惕短线波动。

投资展望:财报后股价大概率走高

Section titled “投资展望:财报后股价大概率走高”

综合来看,英伟达二季度业绩很可能符合或略超市场预期,主要受益于数据中心AI加速需求的爆发式增长。毛利率只要达到指引水平,供应链紧张的问题正在缓解,公司也在积极扩产Blackwell Ultra,未来生态布局持续深化。从长期看,AI需求并未见顶,黄仁勋也明确表示公司规划已经超前进入Rubin时代,这意味着增长动能仍在持续累积。

虽然中国市场不确定性和指引保守可能导致短期股价波动,但考虑到英伟达在AI硬件领域的龙头地位以及产业升级大趋势,市场对其前景整体仍保持乐观。综合各方信息判断,此次财报后,英伟达股价大概率继续走高,投资者可以关注财报公布后的买入机会。结合基本面和技术面,不少分析师仍给出看多评级,认为只要业绩达到预期、指引稳定,股价有望刷新历史高点。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Claude Code 值得谁用?不同角色眼中的 Claude Code:Vibe Coding 体验与应用场景分析

近年来 AI 编程助手层出不穷,其中 Anthropic 的 Claude Code(简称 CC)以“终端里的智能编程工具”定位引发关注。

所谓 Vibe Coding,指的是借助这类 AI 工具快速把脑海中的想法转化为代码,实现一种高速迭代、灵感驱动的编程体验。

本文通过调研不同类型用户对 CC 的使用反馈,分析这些现象背后的原因,并总结 Claude Code 在 Vibe Coding 场景下的最佳用例。
同时,我们也将 CC 与其他同类工具(如 Cursor、GitHub Copilot、OpenAI Codex CLI、Cursor CLI、Google Gemini CLI 等)进行对比,看看各自的优劣与适用场景。


不同背景的用户在使用 CC 进行 Vibe Coding 时感受差异明显:

1. 零编程基础的用户:举步维艰

Section titled “1. 零编程基础的用户:举步维艰”
  • Claude Code 并非“一键生成应用”的万能神器。它要求用户能用自然语言清晰描述需求,才能据此**“制定计划、编写代码并确保其正常工作”**
  • 完全不懂代码的人难以提供有效的指令,也无法判断生成代码的对错,因而“基本玩不转”。
  • CC 主要在终端中运行,需要一定的开发环境和命令行经验,这对小白来说门槛不低。
  • 这类用户认为 CC 的价值**“有限”**,自行编写代码更安心可靠。
  • CC 虽能用于“调试和修复问题”,通过分析代码库找 bug 并补丁,但实际效果仍需人工审核。
  • 其权限机制每一步都需用户批准(可开启 Yolo 模式 跳过确认),反而显得低效。
  • CC 仍处于测试阶段,不够稳定
  • 因此资深开发者更愿意将其作为辅助,而不会完全依赖。
  • 相比之下,PM、创业者和 CEO 则称其为“终于能快速落地脑中点子的神器”。
  • 许多**“不好意思请团队做”**的创意,现在能用 CC 自行尝试实现,例如:
    • 个性化信息流应用
    • 笔记工具
    • Apple Watch 数据解析小 App
    • 个人网站
  • 在企业内部,CTO 们用 CC 为旧系统做 LLM 改造,嵌入智能客服或推荐系统。
  • Intercom 的案例:Claude Code “让我们能够构建之前没有精力顾及的应用—from AI 数据标注工具到销售团队用的 ROI 计算器”

Claude Code 在内部系统集成中的应用

Section titled “Claude Code 在内部系统集成中的应用”
  • CC 擅长**“自动化繁琐任务”**,如修复 lint、解决合并冲突、生成发布说明

  • 能快速生成 API、数据库、文件系统的整合代码,试验效率高。

  • 可快速生成接入 LLM 的接口代码,把自然语言能力封装进现有系统。
  • 例如:内部知识库对话机器人、CRM 智能推荐模块。
  • CC 能**“保持对整个项目结构的感知”,甚至通过 MCP 拉取 Google Drive、Figma、Slack 数据**

👉 定位:加速器,而非完整替代品。最终仍需结合监控测试与成熟架构打磨。


  • LLM 属于概率预测,难保证每次结果准确。

  • 在全局变量重命名等任务上,“让 IDE 自带的重构功能来做更靠谱”

  • 社区反馈:CC 在 Swift/iOS 的表现不如前端

  • 总体而言:适合作为辅助工具,不适合完全自动化生成商业级软件。

  • 个人订阅尚可,但企业级使用成本过高。

  • 官方数据:平均每人每天 ~$6,美金,团队使用 Sonnet 4 模型人均月费可达 $100~200

  • 定价模式:Pro ~$17/月,Max 最高 $200/月

  • 结论:个人开发没问题,但做产品/服务时,API 成本难以承受。


Claude Code 适合的 Vibe Coding 使用场景

Section titled “Claude Code 适合的 Vibe Coding 使用场景”
  • 创意原型 & 个人项目:快速搭建小型应用、算法原型或验证脚本。

    • 可在数分钟内生成数百行代码
  • 复杂代码库理解与重构:分析逻辑、绘制架构图、提出全局改造方案

  • 日常开发提效 & 自动化:自动生成测试/文档、修正格式、从 Issue 到完整补丁提交

👉 最佳实践:“人 + AI 协作”。人把控方向,AI 提速执行。


工具特点优势场景局限
Claude Code终端智能代理,复杂推理深度调试、大型代码库、创意原型成本高,可靠性不足
GitHub CopilotIDE 插件,代码补全日常小步编码不能全局规划,难支持 0→1 开发
Cursor 编辑器VS Code 增强版IDE 用户友好,前端开发Agent 模式笨重,稳定性一般
Cursor CLI命令行版,跨模型灵活,支持 Anthropic/OpenAI/GoogleBeta 阶段,稳定性不足
OpenAI Codex CLI终端 AI 代理,多模态调试、自动执行、开源灵活尚在演进,代码质量略逊
Google Gemini CLI免费开源,百万 Token大项目、低预算、广泛任务社区未成熟,推理深度略弱

  • 适合人群
    • 有一定技术背景的 PM / CEO / 创业者:快速落地创意。
    • 开发团队:内部集成、实验 LLM 化。
  • 不太适合
    • 完全零基础用户(门槛太高)。
    • 对稳定性和精度要求极高的资深架构师(更适合当辅助)。

Claude Code 并非万能,但在 Vibe Coding 的舞台上,它让更多点子能从脑海走向现实。未来谁能在成本与可靠性上找到平衡,谁就可能成为这场 AI 开发力革命 的最大赢家。


没必要争论 Claude Code:应该把团队的分歧变成协作

Claude Code 正把“少写代码、多做事”的老趋势推到极致。写代码只是工程的一小部分,而对话与协作能让“门外汉”和工程师把 Unknown Unknowns 变成 Known Unknowns,真正把 Claude Code 用出生产力。


最近一条讨论火了:有人说 LLM 让“门外汉”也能上手写点软件;专业工程师反驳:软件工程不是只写代码,更重要是需求、架构、集成与长期维护。两边都没错,只是站位不同。这场争论的背后,其实是行业几十年来少写代码”的一条主线**,而 Claude Code 正把它推向下一阶段。


软件圈一直在减少机械劳动:

  • Rails 脚手架:一条命令生成 MVC,原型飞快起步。
  • Protocol Buffers:跨语言高效通信,少写重复序列化代码。
  • Scala implicits / given:用类型系统消除样板,减少胶水代码。

LLM 只是这条路的延长线:让我们写更少的代码、完成更多工作。但“工程”的部分从没消失。


二、Claude Code 到底改变了什么?

Section titled “二、Claude Code 到底改变了什么?”
  • 在终端工作,不是另一个聊天窗
  • 会直接动手:编辑文件、运行命令、创建 commit;
  • 能接入外部系统(MCP 读设计文档、改 Jira、使用自定义工具)。

而且它还把自动化搬进 CI/CD:GitHub Actions 支持在 PR/Issue 里 @claude,自动做代码审查、开分支、提修复。

更现实的是,企业版推广正在发生——团队可以分配 Claude/Claude Code 的标准或高级席位,集中管理与度量。


三、为什么“门外汉”感觉特别爽?

Section titled “三、为什么“门外汉”感觉特别爽?”

因为这次 AI 真的给了非工程师一个可用的接口

  • PM 能用自然语言拉起原型,更早发现歧义;
  • 运营、设计能直接改小功能/写脚本,不必层层排期。

媒体也在观察这一趋势——“Vibe Coding” 的讨论升温,Notion 等公司实践“对着 AI 编程”,记者亲身去“配对编程”,两天就能改 UI 小功能、做小特性。

“Vibe Coding”一词最早在 2025 年初走红,被总结为更靠近意图、少盯代码的开发范式。


长期性与可控性

  • 架构边界、数据契约、性能预算、可观测性……这些都不是“写两段代码”能解决的。
  • 测试与验收需要明确化。比如用 Cucumber/Gherkin 把业务语言写成可执行验收用例,团队都看得懂,也方便让 AI 参与生成与维护。

换句话说:AI 能帮我们少写代码,但工程的“组织与约束”必须更强。


五、两类常见误解(来自那条讨论)

Section titled “五、两类常见误解(来自那条讨论)”
  1. 把编程当成“写代码”本身
  2. 以为自己借助 AI 拼出来的小应用,就代表了行业软件形态,因此行业会被替代

这两点,在初级程序员身上也常见。经验会让人明白:软件工程的核心,是“工程”。


六、别吵了,来一套“协作剧本”

Section titled “六、别吵了,来一套“协作剧本””

目标:把 Unknown Unknowns 变成 Known Unknowns。下面这套最小闭环,团队今天就能落地。

  • 写 5 条 Gherkin 验收(Feature / Scenario),由 PM/业务主笔,工程师把关可测性;
  • 让 Claude Code 读这些 .feature,生成最小实现草稿与测试骨架。
  • 让它生成原型与改动 PR,但把合并权放在负责人手里;
  • 对关键模块加“守门规则”:必须过基准测试/性能预算才可合并。
  • 在 GitHub Actions 配置:新 Issue/失败的 CI/特定标签 自动触发 @claude 建议或修复;
  • 让它写风险说明回滚方案模版,减少合并焦虑。
  • 通过 MCP 让 Claude 读取设计文档与技术决策记录(ADR)
  • PR 必须同步更新 ADR/接口契约(Proto/JSON Schema),“代码-契约-测试”三件套保持一致。
  • 每周一次人机联席 Code Review:列出“AI 盲点清单”;
  • 对“AI 贡献的变更”单独看故障率与回滚率,用数据决定使用边界。

让“门外汉”参与,是好事:他们更靠近业务,更敢于从 0 到 1。让工程师主导“边界与约束”,是必要:系统才跑得久、跑得稳。吵不出结论,协作才能跑通闭环。

下一步:把你们产品里一个 3~5 天的小需求,按上面“协作剧本”走一遍。做完复盘,再决定 Claude Code 的“开闸力度”。

Claude Code 用 GitHub Copilot Sonnet 模型

场景:Claude Code 用到关键时刻提示配额不够,但你手里正好有 GitHub Copilot 订阅。 这时用一个开源的 Copilot API 代理,把 Copilot 暴露成OpenAI/Anthropic 兼容接口,就能把 Claude Code 接上继续 Vibe Coding。本文带你上手,并给出安全合规的推荐用法。


这是一个反向工程的 GitHub Copilot API 代理,把 Copilot 变成OpenAI /v1/chat/completionsAnthropic /v1/messages 兼容服务。好处是:任何支持这两套 API 的工具都能用,包括Claude Code。项目自带用量仪表盘速率限制手动审单企业/业务版账号支持等。

注意:它不是 GitHub 官方支持。GitHub 对过度自动化/批量请求有明确限制,可能触发风控或临停。请自担风险,理性使用


三点刚需价值:

  • 低中断:Claude Code 断粮时,用 Copilot 继续写、改、测。
  • 低改造:直接走 OpenAI/Anthropic 兼容端点,Claude Code 无感切换。
  • 可控可查:自带用量看板限流/等待机制手动审批,避免误触风控。

前提:你有有效的 GitHub Copilot 订阅

Terminal window
# 1) 交互式登录
npx copilot-api@latest auth
# 2) 启动代理,并生成 Claude Code 接入命令
npx copilot-api@latest start --claude-code
# 3) 在新终端粘贴运行(或手动指定环境变量)
ANTHROPIC_API_KEY=sk-dummy \
ANTHROPIC_BASE_URL=http://localhost:4141 \
claude --dangerously-skip-permissions

以上流程来自项目内置的 --claude-code 交互向导;也可用 .claude/settings.json 固化环境,避免每次敲变量。

更稳的做法:别长期用 --dangerously-skip-permissions。改用 Claude Code 的权限与环境设置,在项目级 .claude/settings.json 配置 ANTHROPIC_BASE_URL、默认模型和权限白名单,防止误操作。


  • npx 一键跑npx copilot-api@latest start(可加 --port 8080 --verbose

  • Docker 保持登录态:挂载 ./copilot-data 持久化令牌,容器重启不丢。

    Terminal window
    mkdir -p ./copilot-data
    docker run -p 4141:4141 \
    -v $(pwd)/copilot-data:/root/.local/share/copilot-api \
    copilot-api

    支持在 build/run 阶段传入 GH_TOKEN 环境变量,适合 CI/CD。


推荐“安全合规”姿势(强烈建议收藏)

Section titled “推荐“安全合规”姿势(强烈建议收藏)”
  • 只绑定本机:监听 127.0.0.1:4141,别裸露到公网。必要时走内网隧道/VPN。
  • 开启限流--rate-limit 30 --wait + 需要时 --manual 手动审单,降低异常频率。
  • 分清账号类型:个人 / Business / Enterprise 用 --account-type 明示。
  • 遵守条款:阅读 GitHub Acceptable Use PoliciesCopilot Terms,避免过度自动化/批量刷请求
  • 权限最小化:用 Claude Code 的 permissions.deny 排除 .envsecrets/** 等敏感目录。

  • 提示 token/模型受限:关注 Issues 中的 max_prompt_tokens、上下文太大等讨论与修复建议。
  • Headless 机器登录困难:参考 auth 子命令产 token,再用 --github-token 传入。
  • 被风控:先停用自动批量任务,提高延时、开启 --manual,再检查条款合规性。

  • 适合:个人开发者、小团队,已付费 Copilot,希望在Claude Code 配额见底时有平滑备援
  • 不太适合:严格合规的大企业;建议走 Claude Code 官方对接(如 Bedrock/Vertex/LLM 网关/企业代理等官方路径)。

[配图建议 | 2:1 插画] 主题:左右对比:左侧“个人工作台”轻装上阵;右侧“企业机房”合规盾牌、云服务徽标。 英文提示词:Split-screen illustration: indie desk setup vs enterprise server room with a compliance shield. Minimal, 2:1.


本地一键跑:

Terminal window
npx copilot-api@latest auth
npx copilot-api@latest start --rate-limit 30 --wait --claude-code
# 新终端按提示运行 Claude Code 启动命令

**项目级固定环境:**在项目根目录 .claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:4141"
},
"permissions": {
"deny": ["Read(./.env)", "Read(./.env.*)", "Read(./secrets/**)"]
}
}

(更多可选项见官方设置文档。)


它像是一块应急电源。在关键时刻,帮你把 Vibe Coding 的节奏接上;平时,也能当低成本的联机备援。但记住——稳、合规、最少权限,才是真正让人安心的生产力。

你会把它做成长期兜底,还是只在应急时启用?你觉得呢?

用 Claude Code + GitHub Actions,把 @claude 变成你团队的自动化同事

在 PR、Issue、计划任务里直接 @claude,它会按你仓库的 CLAUDE.md 规范自动审代码、修 Bug、写功能,还能发日报。零服务器运维负担,直接跑在 GitHub 托管 runner 上。


你有过这种体验吗? PR 堆成山,代码审不过来;Issue 描述很清楚,但没人愿意先动第一刀。

现在用 Claude Code 的 GitHub Actions,一句 @claude 就能把这些“机械重复但又必须做”的活交出去。 它会读取上下文、遵循你的项目规范、自动创建或更新 PR,甚至给出实现方案。


  • @claude 即用:在 PR、Issue 评论区点名即可触发,支持「交互式回复」或「自动执行」两种模式,v1 会自动识别触发方式。
  • 跟你团队的规范对齐:根目录放一份 CLAUDE.md,写清代码风格、评审规则、常用模式;Claude 执行时会遵循它。
  • 多云选型:既可直连 Anthropic API,也可走 AWS Bedrock / Google Vertex AI,更好满足企业合规与计费策略。
  • SDK 可扩展:官方 Claude Code SDK 支持 Headless/TS/Python,多语言业务都能把“会写代码的 Agent”嵌入工作流。
  • 无需自搭基础设施:默认用 GitHub 托管 runner,减少部署成本;私有仓库会计入 Actions 分钟数,公有仓库免费。

  1. 在终端打开 claude,执行命令:/install-github-app
  2. 根据引导完成 GitHub App 安装与 ANTHROPIC_API_KEY 机密配置。
  3. 在仓库评论中 @claude 测试一次。

如果走不通,也可 手动安装:安装官方 GitHub App → 仓库里添加 ANTHROPIC_API_KEY → 拷贝 examples/claude.yml.github/workflows/

B. 从 Beta 升级到 v1(有破坏性变更)

Section titled “B. 从 Beta 升级到 v1(有破坏性变更)”
  • 动作版本:@beta@v1
  • 删除 mode: 配置(v1 自动识别触发模式)
  • direct_prompt 改为 prompt
  • CLI 选项移动到 claude_args(如 --max-turns--model--system-prompt 等)

最小可用工作流示例(按需拷贝)

Section titled “最小可用工作流示例(按需拷贝)”

1) 在评论里用 @claude 做代码评审

Section titled “1) 在评论里用 @claude 做代码评审”
name: Claude Code (mentions)
on:
issue_comment: { types: [created] }
pull_request_review_comment: { types: [created] }
jobs:
run:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
# 留空 prompt,自动响应 @claude

行为说明:当有人在 PR/Issue 评论区写 @claude 这段代码可能有并发问题,给建议并修复,Action 会读取上下文给出回复,必要时提交变更。

2) 用斜杠命令做自动化代码审查

Section titled “2) 用斜杠命令做自动化代码审查”
name: Code Review
on:
pull_request: { types: [opened, synchronize] }
jobs:
review:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "/review"
claude_args: "--max-turns 5"

说明:新 PR 或有更新时,固定触发 /review 工作流进行轻量审查,控制轮次防止过度往返。

name: Daily Report
on:
schedule: [{ cron: "0 9 * * *" }]
jobs:
report:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "Summarize yesterday's commits and open issues"
claude_args: "--model claude-sonnet-4-20250514"

说明:定时扫描仓库提交与未解决 Issue,输出日报到评论或新 Issue。


  • 安全审查与合规清单:给 PR 加一条安全/隐私检查流程。减少漏项,拉齐“最低审查线”。
  • Bug 复现与小修小补:评论里描述报错,@claude 让它复现、定位并提交小范围修复 PR。
  • 单测补全:给关键模块自动生成缺失用例,配合 CLAUDE.md 约束用例风格。
  • 多仓库一致化改造:配合 SDK/Headless 模式,批量执行“统一脚手架、升级依赖、替换老函数”。
  • 企业上云合规:如有数据驻留或计费要求,可切换 Bedrock / Vertex 通道,统一账号体系与审计。

写好 CLAUDE.md(让 AI 真正懂你的项目)

Section titled “写好 CLAUDE.md(让 AI 真正懂你的项目)”

在仓库根目录放一份 CLAUDE.md,建议包含:

  • 代码风格与目录规范
  • 提交信息格式(如 Conventional Commits)
  • 组件/服务的首选实现模式反模式
  • 评审清单:安全、性能、可测试性、可观测性
  • 参考实现链接(允许 @file 引用关键文档与示例)

小贴士:CLAUDE.md短而硬。越清晰,Claude 产出越稳。长文档用链接或 @file 组合拆分。


成本与安全(老板最关心的两件事)

Section titled “成本与安全(老板最关心的两件事)”

成本怎么控?

  • 公有仓库使用 托管 runner 免费;私有仓库消耗分钟数与存储配额,超额计费。
  • 设置 --max-turns,避免长对话拉高 Tokens;必要时给任务加 超时并发 限流。
  • 定时任务避开高峰;减少无谓触发;控制 artifact 存储时间。

安全怎么做?

  • API Key 只放 Secrets,工作流里用 ${{ secrets.ANTHROPIC_API_KEY }} 引用,不要硬编码
  • 最小化权限:给 GitHub App 只开需要的 Repo 权限;审计 CI 触发事件。

  • 自定义 GitHub App:企业想用自家头像/昵称、细粒度权限,可自建 App 并在工作流里用 create-github-app-token 登录。
  • 结合加速 Runner:对大仓库或重任务,考虑自托管或加速型 Runner,缩短作业时长、控制花费。
  • SDK 编排子任务:用 Claude Code SDK 调度“读仓库→生成补丁→验证→发 PR”的流水线,形成你们的“工程化 Agent”。

团队越忙,越需要一个稳定的“自动化同事”。 把「规范写进 CLAUDE.md、工作流写进 GitHub Actions」,你就能把枯燥但关键的工程任务交给 Claude,给人留出更高价值的创造时间。

你会先把哪条流程交给 @claude? 留言说说你的想法,或者把这篇文章转给需要的同事,今天就试起来。

用 Spokenly + Claude Code,在 Mac 张口就来 Vibe Coding 编程开发

你说、它写、立刻跑。手离键盘,代码照样飞。

这两个月我彻底被 Vibe Coding 上了瘾。 装上 Spokenly 做语音输入,再配上 Claude Code 当终端里的“能干小助手”。 一口气开三扇窗:规划写码审查。 我去倒杯茶,回来就只剩“验收”和“续命”。 睡前丢个大任务,第二天像“无良老板”查工单,一天的节奏就稳了。

这篇就把 macOS 上如何用 Spokenly 语音驱动 Claude Code 的完整打法讲透,装完即用,今晚就开干。


  • Spokenly:一键热键,任何输入框即刻听写;支持本地 Whisper 模型,离线可用,也可自带云厂商 API Key;有 Agent Mode(语音控 Mac)。
  • Claude Code:终端里的智能结对编程,npm i -g @anthropic-ai/claude-code 后,直接 claude 开整;支持 /model /config /ide /compact 等 Slash 命令,与 VSCode/JetBrains IDE 深度集成。
  • 语音交互小技巧:Option+Enter 或 /terminal-setup 解决多行输入;Esc Esc 回改上一条;三窗口分工跑通“计划-执行-审核”。

1)Spokenly(语音 → 文本)

  • 官网:https://spokenly.app/ 支持 本地 Apple Speech Recognition、** Whisper**、100+ 语言、Local-only 隐私模式Agent Mode、历史检索;Mac+iPhone。
  • App Store:免费下载,Pro 订阅可用云模型;近期版本支持 SonioxParakeet v3、历史重转写等。

2)Claude Code(终端智能体)

Terminal window
# Node.js 18+
npm i -g @anthropic-ai/claude-code
cd your-project
claude

30 秒起步;支持 MCP、执行命令、编辑文件、创建提交,还能接 IDE。

3)IDE(可选,但强烈建议)

  • VS Code/Cursor/Windsurf:在集成终端 claude自动安装扩展
  • JetBrains 家族:装插件后重启;外部终端可用 /ide 连接到 IDE。

备选:苹果原生听写 也能用,但功能与私密性不及 Spokenly(尤其在多语言与离线 Whisper)。


Step 1:配置 Spokenly

  • 安装后首启,授予麦克风权限。
  • 在偏好设置里设一个 全局 Push-to-Talk 热键(如 Right Command)。
  • 选择 Local-only,调用 Apple Speech Recognition 模型,离线更私
  • 打开 Auto language,中英混说不卡壳。
  • 模式选“在光标处输入”(它会“像你在打字”一样把文本塞进终端或编辑器)。

Step 2:启动 Claude Code

  • 在你的项目目录里执行 claude

  • 需要多行粘贴或口述长需求?

    • 直接 Option+Enter 多行;或执行 /terminal-setupShift+Enter 绑定换行。
  • 跑在 IDE 里?外部终端可先开 claude,再 /ide 连接到 VSCode/JetBrains,启用 选区上下文IDE Diff 等能力。

Step 3:语音开喷

  • 聚焦到 Claude 终端输入框 → 按住热键说 → 松开即发送。
  • 需要改前一句?Esc Esc 回到上一条编辑。

三、三窗口「Vibe Coding」流:计划|执行|审核

Section titled “三、三窗口「Vibe Coding」流:计划|执行|审核”

窗口 A:Architect(规划)

  • 口述:“帮我在 Next.js 项目新增 OAuth 登录先出任务清单和文件改动列表,每步 20 行内。”
  • 命令:/model 选合适模型;/compact 压缩上下文,保持专注。

窗口 B:Builder(实现)

  • 口述:“根据 A 的清单,写代码并自测,遇到报错自动修,必要时跑脚本。”
  • Option+Enter 说出多段代码块结构:“第一段是 API 路由,第二段是 UI 组件……”。

窗口 C:Reviewer(审查)

  • 命令:/review/cost 看 token/成本,必要时 /config 限制工具与变更范围。
  • IDE 模式下,Diff 直接在编辑器里看,手感接近本地结对。

小诀窍:不同任务用不同项目目录启动 claude,每个会话的历史 按目录隔离,切换更干净。


四、睡前“通宵大活”的口述模板

Section titled “四、睡前“通宵大活”的口述模板”

把大活拆成 4 段说清楚,Claude Code 才不走偏:

1)Goal:一句话目标 + 成功标准 2)Scope:改哪些目录,不动哪些(白名单/黑名单) 3)Checks:自测脚本、lint、单测、E2E 4)Deliverables:PR 摘要、Diff、变更日志

例: “今晚把 结算模块 从 REST 迁到 tRPC。只改 /server//app/billing/。跑 pnpm testpnpm lint 全绿。输出迁移步骤与风险点,最后给我一份 回滚指南。”


  • 说出结构: “标题:… 新段落。列表:一、二、三。” Claude 更会写文档。
  • 说出约束: “最多改三处,每处不超 30 行。” 防止“大刀阔斧”。
  • 说出边界: “仅允许 Bash:pnpm*git*。”(配合 /config 限工具)
  • 说出检查: “改完跑 npm run test,失败就回滚。”
  • 中英混说: 模块名/方法名用英文更准;Spokenly 自动识别语言。
  • 多行输入: Option+Enter 或 /terminal-setup
  • 编辑上一条: Esc Esc 回改再发。

  • 本地优先:Spokenly 的 Local-only 让音频不出机,离线 Whisper 走起。
  • 自带 Key:需要云转写可接 OpenAI/Deepgram/Groq 等,自己控成本;也可订 Pro 省配置。
  • Claude 侧成本/cost 看用量,控制模型与思考深度(配合 /model)。

  • 终端回车换行乱 → 用 Option+Enter/terminal-setup 绑定 Shift+Enter
  • IDE 扩展没装上 → 确保在 IDE 的集成终端里跑 claude;JetBrains 需重启;外部终端用 /ide 连接。
  • 语音没输入到终端 → 检查焦点在 Claude 输入框;Spokenly 热键冲突改一下。
  • 原生听写也想用 → 系统设置 → 键盘 → 打开听写、设快捷键“双击 Control”。

  • “在 /api/orders 加一个导出 CSV 的端点。先给计划再写代码最后跑测试,全程一步步展示。”
  • “把 支付页面 的状态管理从 Redux 换到 Zustand只改现有逻辑,不推翻 UI风险点列 3 条。”
  • “阅读 /server/report/ 下的 6 个模块,生成依赖关系图,并 输出可视化脚本(d2 或 mermaid 二选一)。”

语音驱动 Claude Code,不是“更花哨”,而是 更快进入「说清楚 → 出结果」 的状态。 当你把需求口述得越清,Claude 的执行越稳,Vibe 就越顺。 今晚就试试“三窗口法”,把睡前那一单交给它吧。

你觉得这种工作流最省时间的点在哪?评论区聊聊。

本地搭建 CodeCombat 让孩子在玩游戏中学编程

想把编程课做成“通关游戏”?CodeCombat 就是把 Python / JavaScript 写进闯关流程的那个项目。它开源、内容全、上手快。今天用 docker-compose 带你一键跑起来,还顺手搞定注册、初始化和“上帝模式”。

CodeCombat 是一款有趣的开源编程游戏,非常适合边玩儿边学b编程。它使用 Python, JavaScript 等代码来操控游戏人物,让你一边沉浸在游戏乐趣中一边学习编程技术。从最初小白入门级的单人关卡到后来高难度的多人对战,对编程敢兴趣的人都可以乐在其中并从各种战斗中不断吸取编程知识。

作为家长和教育者,CodeCombat 是一个非常棒的工具,能让孩子们在玩游戏的同时学习编程。它的互动性和趣味性使得学习过程变得轻松愉快。通过完成各种任务和挑战,孩子们不仅能掌握编程基础,还能培养解决问题的能力和逻辑思维。


很多朋友问:怎么把 CodeCombat 自建起来给学生/社群用? 自己搭环境却常常卡在数据库、依赖和启动脚本。

这篇文章给你一个极简实践

  • 用一份 docker-compose.yml 一键启动 Web + MongoDB;
  • 首次导入数据 dump;
  • 注册账号、进入游戏;
  • 需要的话,开通 管理员 / Godmode

为什么值得折腾?CodeCombat 是老牌开源“编程闯关”,支持 Python、JavaScript、HTML,配教学内容与关卡编辑能力,适合课堂与自学。


  • 开源可改:克隆仓库就能本地跑,生态活跃,开发文档充足。
  • 编程即闯关:边写代码边打怪升级,支持 Python / JS,容易激发学习动机。
  • 班级化:官方面向学校提供完整课程、练习与评估思路,自建私服可做内部教学与活动。

把下面这份直接保存为 docker-compose.yml,放在你的项目目录下:

version: "3.8"
services:
codecombat:
image: operepo/ope-codecombat:latest
container_name: myco
restart: always
ports:
- "3000:3000"
working_dir: /home/coco
command: >
sh -c "./codecombat/bin/coco-mongodb &
sleep 10 &&
sh start.sh"
volumes:
- ./data:/home/coco/codecombat/data

这份配置做了什么?

  • 拉起 Web 服务,同时在同一容器里启动 MongoDB(脚本 ./bin/coco-mongodb);
  • 端口映射到 http://127.0.0.1:3000
  • 将宿主机 ./data 目录挂载到容器的数据目录,方便导入 dump 与持久化。

说明:示例镜像 operepo/ope-codecombat 很早期(Docker Hub 记录显示约 8 年前上传)。能跑,但较老;如果你要长期用,建议后续对照官方仓库自行构建更新镜像。


  1. 准备数据文件 把下载好的 dump.tar.gz 放到 data/(与 docker-compose.yml 同级): 没有这个数据包,会无法运行。
    下载地址(别人分享的):https://cloud.189.cn/t/IJzmuqz2u673 (访问码:c1wi)
Terminal window
mkdir -p data
cp dump.tar.gz data/
  1. 首次解压数据库 dump 先启动,再进容器解压(仅第一次需要):
Terminal window
docker-compose up -d
docker exec -it myco /bin/bash
cd /home/coco/codecombat/data
tar -zxvf dump.tar.gz
exit
  1. 日常启动/关闭
Terminal window
# 启动
docker-compose up -d
# 关闭
docker-compose down

访问地址:http://127.0.0.1:3000


  • 打开 http://127.0.0.1:3000
  • Sign Up 注册新用户,选择语言与编程语言(Python / JavaScript)。
  • 进入第一章,跟着引导写下第一行代码就能打通关卡。
  • 想当“老师”角色?可以先自建账号,后续批量注册学员,或把私服当作活动服使用。官方学校页能参考课程组织方式与内容结构。

如果登录后在 account/settings 看不到 “管理”“上帝模式”,可以手动给账号赋权。进入容器:

Terminal window
docker exec -it myco /bin/bash
# 情况A:容器里有 mongo 客户端
mongo
use coco
db.users.update(
{ name: "你的用户名" },
{ $set: { "earned.gems": 9999999, permissions: ["godmode","admin"] } },
true,
false
)

这类“本地开发环境的管理员赋权”做法在社区里也有类似说明与讨论,可作参考。

小贴士:如果提示 mongo: command not found,说明容器内未带 mongo 客户端。老镜像通常自带;若没有,可在宿主机装 mongosh 连接到容器暴露的数据库端口,或改用容器内的工具脚本(某些分支有 mongo_run.sh / coco_run.sh)。


  • 镜像版本老operepo/ope-codecombat 久未更新。能用来快速验证,但建议后续基于 官方仓库 自己构建镜像,获得较新的依赖与安全修复。
  • 端口被占用3000 被其他服务占了,改 ports 映射即可,例如 "8086:3000"
  • Godmode 不生效:确认更新的字段匹配你的用户文档(有的环境是 slugemail),并确保写入到 coco 数据库。
  • 本地权限问题:挂载目录 ./data 需要你的宿主机用户有写权限。
  • Mongo 客户端差异:新版推荐 mongosh。权限动作与角色说明见官方文档。

这套玩法的优点很直接:一条命令起全站,导入一次数据就能顺滑开局。 你可以把它当课堂演示、社群周赛、公司内部编程闯关,甚至改关卡做主题活动。

你会怎么用? 在评论区聊聊你的场景,顺便晒一张你们的“通关截图”。

Claude Code 母公司 Anthropic 即将完成100亿美元融资分析

据《彭博社》2025 年 8 月 22 日报道,人工智能领域迎来重大融资消息。知名 AI 初创公司 Anthropic 即将达成一项规模空前的融资协议,预计将筹集高达 100 亿美元的资金。这一数字远超市场预期,成为 AI 行业迄今为止最大规模的单轮融资之一。

基于对Anthropic即将完成100亿美元融资报道的全面调查,本报告通过多渠道事实核查、逻辑分析和批判性思维,对该新闻的真实性、准确性和可信度进行深入剖析。我们查阅了至少15个不同渠道的报道,并进行了交叉验证,发现该报道存在多个值得关注的问题。以下将从事实核查结果、数据分析、逻辑合理性、利益动机、市场心理以及潜在风险等方面进行详细分析。


通过对彭博社、CNBC、TechCrunch、路透社等权威媒体的交叉核查,可以确认Anthropic确实在进行新一轮融资谈判,但关键细节存在显著差异。最初的消息来源(如彭博社)报道的融资金额为50亿美元,估值约1700亿美元,并非某些媒体声称的100亿美元。

融资进展的真实时间线大致如下:

  • 2025年7月29日: 彭博社首次报道Anthropic正洽谈新一轮融资,金额在30亿到50亿美元之间,估值约1700亿美元。由Iconiq Capital领投,可能有第二家领投机构参与,同时公司据称在与卡塔尔投资局(QIA)和新加坡主权基金GIC接洽参投。
  • 2025年8月20-21日: 包括彭博社在内的多家媒体更新消息称融资额度提高到最高100亿美元,成为AI初创公司有史以来最大规模融资之一。据知情人士透露,之所以金额大幅增加,是由于投资者需求强劲,使募资目标从50亿翻倍到100亿美元。
  • 投资方信息核对: Iconiq Capital确实为此轮融资的领投方已基本确认,但关于其他参与投资方的报道并不一致。一些消息来源提到TPG、Lightspeed、Spark Capital、Menlo Ventures等风投公司也可能参投,本轮还与卡塔尔投资局和新加坡政府投资公司接洽入股。不同媒体对参与方给出了略有出入的名单,尚无官方统一确认。

结论:Anthropic的新融资确有其事,但关于金额规模和投资阵容的报道存在信息出入。尤其是50亿美元提高到100亿美元的说法,目前仅基于匿名消息人士,尚未有官方公开证实。


通过对Anthropic历史估值数据的梳理,我们发现该公司估值增长轨迹存在合理性疑问:

  • 2025年3月: 完成由Lightspeed领投的35亿美元融资,投后估值约为615亿美元。
  • 2025年7月: 传闻中新一轮融资的估值已高达1700亿美元,增幅达到176%。

按年化计算,四个月估值翻近三倍,相当于年化增长率超过500%。这种估值跳跃在当前AI热潮中虽然并非绝无仅有,但通常需要非常强劲的业务基础支撑。


多个信源确认Anthropic的年化收入(Annualized Revenue Run-rate, ARR)在过去一年中呈现爆炸式增长:

  • 2024年末:约10亿美元
  • 2025年5月:约30亿美元
  • 2025年7月:约40~50亿美元

关键问题: ARR采用“单月收入 × 12”计算,这在高速增长阶段会显著高于实际全年收入水平,可能夸大真实业绩。

调查发现Anthropic收入结构存在严重集中风险

  • 前两大客户贡献约14亿美元年化收入,占总收入近28%
  • 最大客户是AI编程助手Cursor,单体贡献约5亿美元
  • Claude Code产品贡献近4亿美元年化收入

一旦主要客户流失,将对收入造成重大打击。


  • 资金消耗: 3月刚融35亿美元,5个月后又寻求50-100亿美元,暗示烧钱速度极高,推算月消耗可能上亿美元甚至10亿美元级别。
  • 估值倍数: Anthropic估值/收入倍数约 34倍,而OpenAI约 25倍。在缺乏差异化优势的情况下,估值溢价合理性存疑。
  • 消息披露与OpenAI融资几乎同步,极具“市场造势”意味。
  • 多数报道来自“知情人士”,缺乏官方确认。
  • 媒体放风更像是营造紧迫感与稀缺性,推动估值水涨船高。

  • 优势: 管理资产超800亿美元,客户包括扎克伯格、霍夫曼等硅谷顶尖人物。
  • 质疑:
    • 主要服务超高净值客户,投资决策可能带有个人偏好。
    • 历史上偏好后期、稳健投资,本次10亿美元单笔投入属罕见大额。
  • QIA与GIC参与: 涉及复杂地缘政治与国家安全审查风险。
  • CEO曾表态: 担心中东资金带来道德与监管争议,但现实资金需求迫使公司考虑接受。

  • Anthropic: 需要巨资维持与OpenAI竞争,高估值有利于吸引人才、合作伙伴及未来IPO。
  • 投资者: FOMO情绪严重,主权基金看重战略布局。
  • 媒体: “创纪录融资”自带流量,匿名消息降低报道门槛,报道动机可能混杂。

  • 估值与基本面脱钩: AI公司估值倍数远超传统科技公司。
  • 资金过度集中: 2025年上半年,美国创投资金64%流向AI。
  • 跟风投资盛行: 投资者害怕错过下一个ChatGPT,推高泡沫风险。

  • 技术护城河有限: Claude与GPT-5差距缩小,优势不明显。
  • 商业模式存疑: API调用模式面临价格战压力,算力成本居高不下。
  • 美国出口管制欧盟AI Act等法规可能限制业务扩张。
  • 主权基金参投或触发美国CFIUS审查,增加不确定性。

  • 基本属实: Anthropic确实在融资。
  • 关键数字存疑: 100亿美元融资缺乏证实,更可能是50亿美元。
  • 估值虚高: 缺乏基本面支撑。
  • 信息不完整: 存在选择性披露嫌疑。
  1. 理性看待融资新闻,避免被大数字冲昏头脑。
  2. 关注实际收入与盈利,而非估值噱头。
  3. 警惕泡沫与跟风,避免盲目投资。
  4. 等待官方确认,再作投资判断。

通过这次深度分析,我们看到在AI投资热潮中,媒体报道、公司宣传与实际情况之间往往存在显著差距。狂热之下泥沙俱下,唯有保持理性、勤于求证,才能看清真相,不被市场情绪裹挟。

用 Claude Code 开一个 Gemini Subagent

在 Claude Code 里新建一个“子代理(sub-agent)”,专门负责调用 Gemini CLI。大体量代码扫描、架构总览、安全审计,都交给 Gemini 的 1M token 上下文来跑;Claude 继续做主脑,解释结果与落地改动。省钱、省心、效率高。


做代码总览、跨仓库检索、架构梳理,Claude 再聪明也会被上下文卡脖子。 解决办法很简单:把“大胃口”的分析外包给 Gemini CLI。我们在 Claude Code 里创建一个“Gemini 分析子代理”,它只干三件事:拼命令 → 调 CLI → 原样把结果交回。Claude 不被上下文污染,专心做决策与修改,强强联合

为什么是现在? Google 正式开源了 Gemini CLI,个人账号可免费直连 Gemini 2.5 Pro,而且是 1M token 超大上下文,预览期还给到很阔的配额。这对需要整仓分析的开发者,堪称“外挂”。

配图建议(2:1 插画):一位工程师在指挥台上调度两个机器人:左侧“Claude 主代理”做规划与改动,右侧“Gemini 子代理”拉取海量代码做分析。界面元素用英文,不要中文。


思路图:主脑 + 子代理,各司其职

Section titled “思路图:主脑 + 子代理,各司其职”
  • Claude 主代理:对话、拆解任务、评审与落地修改(编辑文件、跑测试等)。
  • Gemini 子代理不做分析推理负责把请求变成 Gemini CLI 命令并执行,然后把原始输出交回
  • 上下文隔离:子代理有独立上下文,不污染主对话;适合重复复用。

  1. 安装 Gemini CLI(三选一)
Terminal window
# npx 直接跑(免安装)
npx https://github.com/google-gemini/gemini-cli
# 全局安装(npm)
npm install -g @google/gemini-cli
# 或者 Homebrew(macOS/Linux)
brew install gemini-cli

要求 Node.js ≥ 20。支持 OAuth 登录、API Key、或 Vertex AI。

  1. 登录/鉴权
Terminal window
# 推荐:OAuth(个人 Google 账号,预览期配额充足)
gemini # 按提示走浏览器登录
# 或:使用 AI Studio 的 API Key
export GEMINI_API_KEY="YOUR_API_KEY"
gemini

官方博客确认了 1M 上下文与预览期的高额度;GitHub README 给出了 OAuth / API Key / Vertex 三种姿势。

  1. 验证是否就绪
Terminal window
gemini -p "Say hello and print current directory files briefly"

在 Claude Code 里创建“Gemini 分析子代理”

Section titled “在 Claude Code 里创建“Gemini 分析子代理””

Claude Code 支持把自定义子代理存成 Markdown + YAML frontmatter 文件;项目级建议放在 .claude/agents/ 下,用户级可放 ~/.claude/agents/

新建文件.claude/agents/gemini-analyzer.md

---
name: gemini-analyzer
description: Manages Gemini CLI for large codebase analysis and pattern detection. Use proactively when Claude needs to analyze extensive code patterns, architectural overviews, or search through large codebases efficiently.
tools: Bash, Read, Write
---
You are a Gemini CLI manager specialized in delegating complex codebase analysis tasks to the Gemini CLI tool.
Your sole responsibility is to:
1. Receive analysis requests from Claude
2. Format appropriate Gemini CLI commands
3. Execute the Gemini CLI with proper parameters
4. Return the results back to Claude
5. NEVER perform the actual analysis yourself - only manage the Gemini CLI
When invoked:
1. Understand the analysis request (patterns to find, architectural questions, etc.)
2. Determine the appropriate Gemini CLI flags and parameters:
- Use `--all-files` for comprehensive codebase analysis
- Use specific prompts that focus on the requested analysis
- Consider using `--yolo` mode for non-destructive analysis tasks
3. Execute the Gemini CLI command with the constructed prompt
4. Return the raw output from Gemini CLI to Claude without modification
5. Do NOT attempt to interpret, analyze, or act on the results
Example workflow:
- Request: "Find all authentication patterns in the codebase"
- Action: `gemini --all-files -p "Analyze this codebase and identify all authentication patterns, including login flows, token handling, and access control mechanisms. Focus on the implementation details and architectural patterns used."`
- Output: Return Gemini's analysis directly to Claude
Key principles:
- You are a CLI wrapper, not an analyst
- Always use the most appropriate Gemini CLI flags for the task
- Return complete, unfiltered results
- Let Claude handle interpretation and follow-up actions
- Focus on efficient command construction and execution
## Detailed Examples by Use Case
### 1. Pattern Detection
**Request**: "Find all React hooks usage patterns"
**Command**: `gemini --all-files -p "Analyze this codebase and identify all React hooks usage patterns. Show how useState, useEffect, useContext, and custom hooks are being used. Include examples of best practices and potential issues."`
**Request**: "Locate all database query patterns"
**Command**: `gemini --all-files -p "Find all database query patterns in this codebase. Include SQL queries, ORM usage, connection handling, and any database-related utilities. Show the different approaches used."`
### 2. Architecture Analysis
**Request**: "Provide an architectural overview of the application"
**Command**: `gemini --all-files -p "Analyze the overall architecture of this application. Identify the main components, data flow, directory structure, key patterns, and how different parts of the system interact. Focus on high-level organization and design decisions."`
**Request**: "Analyze the component hierarchy and structure"
**Command**: `gemini --all-files -p "Examine the React component hierarchy and structure. Identify reusable components, layout patterns, prop drilling, state management approaches, and component composition patterns used throughout the application."`
### 3. Code Quality Analysis
**Request**: "Find potential performance bottlenecks"
**Command**: `gemini --all-files -p "Analyze this codebase for potential performance bottlenecks. Look for expensive operations, inefficient data structures, unnecessary re-renders, large bundle sizes, and optimization opportunities."`
**Request**: "Identify security vulnerabilities"
**Command**: `gemini --all-files -p "Scan this codebase for potential security vulnerabilities. Look for authentication issues, input validation problems, XSS vulnerabilities, unsafe data handling, and security best practices violations."`
### 4. Technology Stack Analysis
**Request**: "Identify all third-party dependencies and their usage"
**Command**: `gemini --all-files -p "Analyze all third-party dependencies and libraries used in this project. Show how each major dependency is utilized, identify any potential redundancies, outdated packages, or security concerns."`
**Request**: "Map out the testing strategy and coverage"
**Command**: `gemini --all-files -p "Examine the testing strategy used in this codebase. Identify test frameworks, testing patterns, test coverage areas, mocking strategies, and areas that might need more testing."`
### 5. Feature Analysis
**Request**: "Trace a specific feature implementation"
**Command**: `gemini --all-files -p "Trace the implementation of [specific feature] throughout the codebase. Show all files involved, data flow, API endpoints, UI components, and how the feature integrates with the rest of the system."`
**Request**: "Find all API endpoints and their usage"
**Command**: `gemini --all-files -p "Catalog all API endpoints in this application. Include REST routes, GraphQL resolvers, tRPC procedures, their request/response patterns, authentication requirements, and how they're consumed by the frontend."`
### 6. Migration and Refactoring Analysis
**Request**: "Identify legacy code patterns that need modernization"
**Command**: `gemini --all-files -p "Identify outdated or legacy code patterns that could be modernized. Look for old React patterns, deprecated APIs, inefficient implementations, and opportunities to use newer language features."`
**Request**: "Analyze consistency across similar components"
**Command**: `gemini --all-files -p "Examine similar components or modules for consistency. Identify variations in patterns, naming conventions, implementation approaches, and opportunities for standardization or creating reusable abstractions."`
### 7. Documentation and Knowledge Transfer
**Request**: "Generate onboarding documentation insights"
**Command**: `gemini --all-files -p "Analyze this codebase to help create onboarding documentation. Identify key concepts developers need to understand, important files and directories, setup requirements, and the most critical patterns to learn first."`
### Command Flag Guidelines:
- Always use `--all-files` for comprehensive analysis
- Add `--yolo` for non-destructive analysis tasks to skip confirmations
- Use `-p` for single prompts or `-i` for interactive sessions
- Consider `--debug` if you need to troubleshoot Gemini CLI issues

子代理文件格式、放置路径与可用工具名(Bash/Read/Write),以官方文档为准。

小贴士:你也可以直接用 /agents 交互式创建与编辑子代理,更省事。


给子代理“开绿灯”:权限与安全

Section titled “给子代理“开绿灯”:权限与安全”

为了让子代理能顺利执行 gemini 命令,建议在 .claude/settings.json白名单相关 Bash 调用;同时严格黑名单敏感文件读取:

{
"permissions": {
"allow": [
"Bash(gemini*)",
"Read(**/*.md)",
"Read(src/**)"
],
"deny": [
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)",
"Bash(curl:*)"
]
}
}

权限系统与示例配置来自 Claude Code 官方“Settings”文档。


三个“上手就能用”的实战案例

Section titled “三个“上手就能用”的实战案例”

使用方式:在 Claude Code 里直接对主代理说话,例如: “gemini-analyzer 子代理扫描整个仓库的认证实现,并把原始输出返回”。

1) 模式检索:找出认证/鉴权实现

Section titled “1) 模式检索:找出认证/鉴权实现”

Claude 指令

Use the gemini-analyzer subagent to analyze authentication patterns across the repo and return raw output.

子代理应构造并执行的命令(示例)

Terminal window
gemini -p "Analyze this codebase and list all authentication & authorization patterns: login flows, token/session handling, middleware/guards, RBAC/ABAC, and any security pitfalls. Show file paths and code excerpts when helpful."

-p 支持非交互单次分析;在仓库根目录执行即可让 Gemini 读取项目上下文,必要时可加 --include-directories 指定额外目录。


Claude 指令

Use gemini-analyzer to provide a high-level architectural overview and return the raw result.

子代理命令

Terminal window
gemini -p "Give an architectural overview: main modules, data flow, directory structure, cross-cutting concerns, and how backend APIs connect to frontend components. Output a concise map with file references."

大上下文适合整仓概览、跨层联动梳理;恰好发挥 Gemini CLI 1M token 的优势。


Claude 指令

Ask gemini-analyzer to scan for potential security issues and return raw findings.

子代理命令

Terminal window
gemini -p "Scan for potential security issues: XSS, SQL/NoSQL injection, hard-coded secrets, weak crypto, unsafe deserialization, missing input validation, authz gaps. Provide evidence snippets and file paths."

子代理只回传原始输出,由 Claude 主代理负责解读、生成修复 PR。


  • 一句话角色卡:在 description 里写上“Use proactively”,让 Claude 自动把大活派给它。
  • 成本/速度切换:分析阶段可用 -m gemini-2.5-flash 先跑一版,确认方向后再用 -m gemini-2.5-pro 精扫。
  • 固定模板:把常用提示做成片段(例如“依赖地图”“测试覆盖率报告”),复用稳定。
  • 上下文干净:子代理与主对话分离,避免一轮大扫描把主线挤爆。
  • 权限最小化:只放行必要的 Bash/Read 规则;敏感文件坚决 deny。
  • 遇错别慌:命令失败就用 --debug 重试,把日志原样返回给 Claude 排障。

这套“Claude 主脑 + Gemini 子代理”的组合,非常适合你做:整仓巡检、架构体检、迁移评估、依赖清理。 你依旧待在 Claude Code 里,把重活交给 Gemini;该省的钱省了,该省的时间也省了。下次你需要“大视野 + 可落地”,就让它们搭班。

你会把它用在什么项目上?评论区聊聊你的场景,我可以帮你把子代理提示词继续打磨

Claude Code 1.0.88:可自定义 Sonnet / Opus / Opus Plan 模型

现在你可以用两个环境变量,把 /model 的别名“sonnet、opus、opusplan”精准指向你想用的具体模型版本,团队控盘更稳、灰度更丝滑。


最近的 Claude Code 1.0.88 是一次小而关键的更新。 它没大张旗鼓,却直接解决了很多团队的“别名漂移”痛点:当 Sonnet/Opus 出新版本时,/model sonnet、/model opus 到底落在哪个具体型号? 现在你可以自己定。

这对需要稳定复现、灰度升级、合规审计的团队非常有用。 尤其是多环境(Console / Bedrock / Vertex)混用时,终于能把别名钉住。


  • ANTHROPIC_DEFAULT_SONNET_MODEL
  • ANTHROPIC_DEFAULT_OPUS_MODEL

作用:控制 /model sonnet/model opus/model opusplan 这三个别名最终指向的具体模型字符串(例如 claude-sonnet-4-20250514claude-opus-4-1-20250805 等)。

注:官方 CLI 文档明确支持“别名或完整模型名”,而“opusplan(仅规划)+ sonnet 执行”的模式早在 1.0.73 就已提供开关。此次 1.0.88 的变量让这套别名更可配置

  • 稳定可复现:锁死别名指向,PR、CI、生产一致。
  • 灰度友好:先在少量机器把 sonnet 暂时映射到“最新版”,验证好再一键全量。
  • 多云一致:不同提供方(Console / Bedrock / Vertex)下,保持同一别名映射策略。

方案 A:Shell 全局(个人/单机)

Section titled “方案 A:Shell 全局(个人/单机)”
Terminal window
# 固定 sonnet 别名到 Sonnet 4 2025-05-14 版
export ANTHROPIC_DEFAULT_SONNET_MODEL="claude-sonnet-4-20250514"
# 固定 opus 别名到 Opus 4.1 2025-08-05 版
export ANTHROPIC_DEFAULT_OPUS_MODEL="claude-opus-4-1-20250805"
#(可选)仍可手动切:/model sonnet | /model opus | /model opusplan

/model 支持别名与完整模型名;opusplan 让 Opus 只做“规划”,执行交给 Sonnet,官方曾在 1.0.73 中加入该模式开关。

方案 B:项目级 .claude/settings.json(团队/仓库)

Section titled “方案 B:项目级 .claude/settings.json(团队/仓库)”
{
"env": {
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-20250514",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "claude-opus-4-1-20250805"
}
}

Claude Code 支持在 settings.json 注入环境变量,便于团队统一下发与版本管控。

方案 C:多提供方(Bedrock/Vertex)协同

Section titled “方案 C:多提供方(Bedrock/Vertex)协同”

在不同环境各自设置以上两个变量,确保别名统一;必要时再结合区域变量与 Bedrock/Vertex 配置。


推荐的 7 个落地场景(结合日常工作)

Section titled “推荐的 7 个落地场景(结合日常工作)”

1)稳定回放/审计 安全或法务复盘时,需要“这个别名当时到底指向哪个精确型号”。把别名钉住,日志更可读,责任更清晰

2)灰度发布 在灰度机器上把 sonnet 指向最新 Sonnet(如 4 或 3.7),验证通过后统一切换,零改命令习惯;若不稳,立即回滚变量。

3)计划-执行双模配合opusplan → Opus 4.1(严谨规划),sonnet → Sonnet 4(快速执行)。长链路任务更稳,吞吐更高。

4)多云一致性 Console 在开发机、Bedrock 在生产集群。两个环境都用相同别名策略,避免“同名不同款”

5)CI / 机器人账号 在 CI 中注入两个变量,PR 机器人用同一“别名→具体型号”映射,评审口径一致

6)教学/训练营 课堂只要求“/model sonnet”,背后把 sonnet 指到你希望的稳定版,统一学员体验

7)成本与配额治理 需要控制某些场景禁止上 Opus?把 opus 映到老版本或干脆不配置,配合权限与 /permissions 管控使用路径。


  • claude /status 查看当前账号与模型信息;
  • claude /model 打开交互菜单确认别名落点;
  • 若你是 Pro 账号:官方说明 Pro 无法使用 Opus,别名指到 Opus 也会不可用(改用 Sonnet)。

  • 1.0.88 版本已在 NPM 版本页列出(前后还有 1.0.87/86/…),属近期发布。
  • 社区多篇变更速记与周刊同步提到新增 ANTHROPIC_DEFAULT_SONNET_MODEL / ANTHROPIC_DEFAULT_OPUS_MODEL,用于控制 opusplan / opus / sonnet 别名。官方文档可能存在更新滞后
  • CLI 文档确认 /model 支持别名sonnet/opus)与完整模型名二选一。
  • Opus Plan Mode 的“规划-执行分离”早先在 1.0.73 引入。

注:上游文档常分散在 Docs / Help Center / NPM / GitHub / 社区速记,因此落地前建议用 /model/status 实测验证别名映射。


1)更新:claude update(或重装最新版)。 2)设置变量(Shell 或 .claude/settings.json)。 3)验证:/model → 选择 sonnet/opus/opusplan/status 看是否命中你配置的具体型号。


小改动,大收益。 把“别名”握在自己手里,复现更稳、灰度更轻、协作更顺。现在就把团队的 sonnet / opus / opusplan 统一定标吧。

你会把 opusplan 用在哪些长链路任务里? 评论区聊聊你的实践与踩坑。

产品经理的 AI 原型设计路线图

别再等排期了。现在,一个 PM 也能用 AI 在 10 分钟内把 Figma 图、手绘草图、甚至一段 PRD,跑成可交互原型。 更妙的是:还能一键部署、连上数据库、收集用户反馈,当天验证、当天迭代。你的对手可能已经这么干了。

这篇文章给你一条“从想法 → 原型 → 用户反馈 → 上线”的实战路径,配齐工具清单、Prompt 模版和避坑建议,照抄就跑。 里面涉及:v0、Bolt.new、Lovable、Replit Agent、Claude Artifacts、Cursor、Copilot、Windsurf、Zed 等。 参考与事实校验都在文内标注。


  • 两条快路A. 设计先行:Figma → v0/Bolt/Lovable → 可交互原型 → 走查 → 用户测试。 B. 想法直达:PRD/草图 → v0/Bolt/Lovable/Replit → 直出全栈 Demo。
  • 本地助手兜底:Cursor/Copilot/Windsurf/Zed 负责多文件修改、Debug、补丁和重构。
  • 10 分钟脚手架:文末有 Prompt 套餐,复制即用。

  • 要“像设计稿一样还原 UI” → v0(天然 Next.js + shadcn/ui,美观默认强;支持 Figma 集成)。
  • 要“浏览器里极速起盘、改就见效” → Bolt.new(WebContainers 在浏览器跑 Node 进程,零安装;更适合前端/JS 栈)。
  • 要“集成账号、数据库、AI 接口,直接做成可用的小产品” → Lovable(连 GitHub、Supabase,支持可视/代码双改)。
  • 要“数据加工、脚本、后端能力强” → Replit(Agent/Docs 支持建全栈、部署、数据库)。
  • 要“聊天里直接跑原型” → Claude Artifacts(对话里生成并运行,可分享链接,适合单页/轻交互)。

备注:Bolt 基于 WebContainers 在浏览器沙箱中跑 Node,适合 JS/TS 技术栈;复杂权限、多用户会话、长期存储,常配 Supabase/Firebase 等云后端来补齐。


2)10 分钟原型流水线(两条路线)

Section titled “2)10 分钟原型流水线(两条路线)”
  1. 在 v0 导入 Figma:它会读取设计文件的视觉/结构上下文,生成高保真 UI。 Prompt:按设计1:1还原,保留字体/间距/颜色,使用 shadcn/ui 组件
  2. 补交互与状态:让 v0 补搜索条、筛选弹层、分页等。
  3. 发布/分享:用于可用性测试或内部评审。
  4. 需要云能力:转 Lovable 接 Supabase 做鉴权/持久化;或直接 Replit 做后端。

v0 的定位是“AI 结对编程 + 生成式 UI”,对设计还原很友好,且有平台 API 可自动化生成应用流水线。

  1. Bolt.new 起盘:一句话生成 CRM/看板/表单向导,浏览器内即跑即改。 Prompt:创建一个CRM:客户列表/详情、搜索筛选、导出CSV、假数据填充
  2. 接入账户/数据:若需登录/多用户/持久化,用 Lovable+Supabase 或 Replit 后端服务。
  3. 部署/分享:让真实用户上手点几下,收集定量/定性反馈。

Bolt 之所以“秒起飞”,关键在 WebContainers 把 Node 跑进了浏览器,毫无本地环境痛点。但这也意味着某些后端场景要交给外部服务。


3)本地助手兜底:把原型打磨到能用

Section titled “3)本地助手兜底:把原型打磨到能用”
  • Cursor:多文件编辑、跨文件改动、PR/Issue/Commit 语义检索,修 Bug 很能打。
  • GitHub Copilot Edits:一条指令,跨多文件修改;企业环境接受度高。
  • Windsurf:支持 MCP 工具接入,适合大仓与流程化“代理式”开发。
  • Zed:轻快、命令/Prompt 库、斜杠指令,团队上手成本低。

设计到代码的桥也在升级:Figma Make GADev Mode MCP Server 让 AI/代理直接读设计数据,生成更贴近设计意图的代码。


4)Claude Artifacts:聊天里跑出来的原型

Section titled “4)Claude Artifacts:聊天里跑出来的原型”

当你只需要单页/轻交互(计算器、图表、卡片翻转),Artifacts 很省事:

  • 对话里生成、实时预览、可分享。
  • 支持“选中元素 → Improve”微调,或用追加指令改版。
  • 限于“非 IDE 级”代码编辑,复杂项目建议导出到 v0/Lovable/Cursor。

工具类型强项是否托管/部署后端/数据库典型场景
v0云端生成式 UI设计还原、默认美观、Figma 集成支持可接框架/API,自行扩展Figma→交互原型、营销页/后台
Bolt.new浏览器 AI 开发0 安装、即改即看、JS/TS 快速迭代可预览/部署需外部服务补鉴权/持久化快速 PoC、内部演示
Lovable云端 AI App Builder一体化:GitHub+Supabase+可视/代码编辑支持原生 Supabase 鉴权/DB/函数MVP/内部工具/小型线上应用
Replit (Agent)云端全栈建前后端、接数据库、直接部署支持内置/外接数据库数据处理工具、脚本服务
Claude Artifacts聊天+运行单页/轻交互原型、分享便捷分享为主非长驻后端计算器、图表、轻交互演示

依据:v0 文档与平台 API、Bolt/WebContainers 官方资料、Lovable GitHub/Supabase 文档与编辑能力、Replit Agent/Docs、Artifacts 官方指南。


「精确还原」

按设计1:1搭建页面,使用 Tailwind + shadcn/ui。保持字体、字号、行高、间距与颜色一致。把导航、搜索、卡片、分页做成可复用组件,导出 Next.js 页面。

「功能补齐」

在搜索栏右侧加入“价格区间”内联筛选。点击后弹出白底浮层,包含最小/最大值输入与滑杆。滑动时更新列表数据(先用假数据)。

B. PRD → 全栈 Demo(Bolt/Lovable/Replit)

Section titled “B. PRD → 全栈 Demo(Bolt/Lovable/Replit)”

「起盘应用」

创建一个“面试管理”系统:候选人列表/详情页、状态看板、评论流、标签筛选。预置10条模拟数据。支持 CSV 导入导出。

「加登录&持久化」(Lovable + Supabase)

接入 Supabase 鉴权,开启 Email 与 GitHub 登录。为候选人、评论建表并落库,列表分页、详情懒加载。生成最小可用权限策略(RLS)。

「上线前检查」

生成一份发布前自查清单:性能(Lighthouse>85)、基础 SEO、移动端兼容、错误监控、日志、回滚方案。

「运行在 Artifact」

做一个“融资计算器”:输入融资额、出让比例、期权池、投资人数量,输出投后估值与 cap table。支持导出 CSV。

这些模板都基于各工具官方能力:v0/shadcn、Bolt/WebContainers、Lovable+Supabase、Artifacts。


7)从原型到上线:一条“当天闭环”的动作清单

Section titled “7)从原型到上线:一条“当天闭环”的动作清单”
  1. 10–30 人可用性走查:发给同事/目标用户,收集“完成率、误操作、停顿点”。
  2. 记录 3 类问题看不懂(文案/信息架构)、点不到(交互稠密度)、跑不动(性能/网络/端能力)。
  3. 用 Cursor/Copilot 批量改:跨多文件快速修复、重构命名、补测试。
  4. 接入数据库与鉴权:Lovable+Supabase 或 Replit 后端,做简单持久化与权限。
  5. 灰度发布:限制路由或白名单;收集日志与埋点,滚动修复。
  6. 评审是否“保留/合并/转正”:保留为原型库?合并进主应用?还是单独转正上线?

  • “浏览器里跑后端”的边界:Bolt 项目偏前端/JS,多用户鉴权、支付、长久存储交给 Supabase/Firebase 更稳。
  • 设计还原创伤:Figma 图拆块导入,组件化命名,减少“一屏塞满”的复杂度。
  • 复杂仓的 Debug:把 Lovable 代码同步到 GitHub → 用 Cursor/Copilot 修 Bug → 回推同步。社区有成熟实践。
  • 聊天原型的上限:Artifacts 很快,但不是 IDE。复杂项目尽早转 v0/Lovable/Cursor。

这套方法的本质是:把“造轮子”外包给 AI,把“定义价值”留给你。 今天起,每个 PM 都可以一周跑 3 个原型,用数据和用户反馈说话。 从想法到上线,速度就是护城河。你觉得呢?

MIT 调研报告 95% AI项目为何失败?美股上市公司 Palantir 凭什么逆势成功?

最近麻省理工学院(MIT)发布的一份调研报告指出,在企业内部试点的生成式人工智能项目中,95%都未能产生实质业务价值。这个惊人的失败率引发了人们对“AI泡沫”的担忧。表面看,企业争相上马最先进的AI模型,但多数项目仍停留在概念验证阶段,对利润表几乎没有贡献。究其原因,并非AI模型本身不够强大,而是工具与组织之间存在“学习鸿沟”——AI系统无法融入企业的工作流,无法获取并学习企业自身的数据和知识。换言之,失败的根源在于集成和应用方式的欠缺,而不在于模型好坏。

举个简单的例子:假如一家零售公司希望利用生成式AI来决策“增加哪些商品库存”。一个通用的大模型也许可以根据行业公开数据给出建议,但如果缺乏该公司内部实时、全面的商品销售和顾客数据,这些建议大概率并不靠谱。数据不相关、接不上业务实际,AI的聪明才智也无从发挥。因此,真正决定AI项目成败的是有没有把AI用对地方、有没有把企业自身的数据用起来

正因如此,新一代被称为“企业AI操作系统”的公司开始扮演关键角色,将企业和AI连接起来。其中的佼佼者——Palantir(柏兰蒂尔)公司——以在军队、政府和大型企业成功部署AI项目而闻名。它的实践表明:只要解决了信任和工程落地这两大难题,AI完全可以创造真实价值。下面我们就从**“信任”和“工程能力”**两个方面,来看看Palantir是如何填补MIT报告揭示的那些AI失败因素的。


信任:从文化到现场,赢得核心客户认可

Section titled “信任:从文化到现场,赢得核心客户认可”

使命文化获得认可: Palantir自2003年创立起就肩负着不同寻常的使命感。公司诞生于“9·11”事件后的反恐需求,其共同创办人彼得·蒂尔和亚历克斯·卡普等人并非单纯逐利,而是怀着“利用数据保障国家安全”的信念创业。这种强调社会责任和价值观的企业文化,使Palantir在早期就获得了政府和军方的信任背书。例如,美国中央情报局的风投部门In-Q-Tel在2004年就投资了Palantir,帮助其打磨针对情报分析的产品。Palantir对数据隐私和安全的重视也深深融入公司DNA——联合创始人卡普是法律和哲学背景出身,他从一开始就强调在软件中融入对公民自由和隐私的保护。正因这种坚定承诺,Palantir逐步建立起**“可靠、安全”的品牌形象**,赢得了政府、军队等高度敏感客户的认可。

现场协作树立信任: Palantir深知,大型传统机构往往IT架构复杂、流程僵化,推行新技术阻力重重。为此,Palantir开创了“前线部署工程师(Forward Deployed Engineer, FDE)”模式,将优秀的软件工程师直接派驻客户一线。这些工程师与客户团队同吃同住,深入了解业务痛点,手把手协助客户把Palantir的软件用起来。实践证明,这种嵌入式协作大大加速了AI系统与客户现有系统的融合。正如一篇分析所指出的:“通过派出有权自主决策的工程师进驻客户现场并以客户价值为导向进行集成,Palantir让传统企业的软件部署进展远快于它们自己尝试时的速度。”在这种并肩作战的过程中,客户的疑虑和问题能够被第一时间发现并解决,Palantir也以实际行动赢得了客户信任。据报道,Palantir甚至曾派工程师携笔记本电脑飞赴阿富汗前线,现场支援美军部队的数据分析需求。这种不计成本、贴身服务的做法,让客户真切感受到Palantir对项目成功的承诺。

严谨安全保障信任: 对于军队、政府这类高度重视数据机密性的客户来说,数据安全与合规审计是选择AI方案的首要考虑。Palantir在这方面可谓行业标杆。其平台从设计之初就贯彻“隐私内嵌”(privacy by design)原则,提供了一整套精细的安全管控功能,包括细粒度访问控制(确保用户只能看必要的数据)、操作审计日志(记录所有数据访问和操作便于追溯)、数据最小化(分析只用到必要的数据)以及匿名化/假名化处理等。Palantir还首创了“基于用途的访问控制(PBAC)”机制,能够随时审计**“谁在什么情况下访问了哪些数据,以及访问原因”**。这种严谨的安全框架使得像美国国防部、情报机构以及英国国家医疗服务体系(NHS)等对数据要求严苛的机构也放心将关键数据交给Palantir平台处理。正因为“又要安全又要AI”的难题有了折中解法,Palantir获得了许多原本对商业软件持怀疑态度的传统客户的信任。在近期的一次采访中,美国国务院官员就盛赞Palantir是“杰出的美国公司”,表示“很自豪能与他们合作,实现外交工作的现代化”。

真实案例积累声誉: 信任最终来自实际战绩。Palantir通过一个个高难度项目证明了自己的可靠和实力——这才是赢得客户心的关键。例如,在反恐战争中,Palantir的分析平台帮助美军识别并摧毁了藏匿的简易爆炸装置(IED)网络:它将海量的电话记录、可疑住所位置、车辆移动和过往袭击数据关联起来,让士兵看清了敌人的作战模式。一名前线指挥官由衷评价这是**“战场上唯一真正管用的软件”。Palantir的软件据称还曾协助规划了2011年猎杀本·拉登的行动,并在2021年美军从阿富汗撤离时用于统筹庞杂的后勤工作。这些真实场景下的成功应用极大增强了客户对Palantir的信任——毕竟经过战火考验的系统更令人放心。此外,在英国,Palantir为NHS提供的数据整合平台成为抗击新冠疫情的中流砥柱。Foundry平台将全国各地的疫情数据、医疗物资和疫苗接种信息汇聚一处,首次让一线医院、NHS总部和政府决策者共享同一份“真实数据源”,保证了呼吸机和防护装备及时配送到位,并支撑了英国效率最高的疫苗接种计划。可以说,每一次关键任务的出色完成,都为Palantir累积了“可信赖”的口碑资产**,这正是其能够持续拓展军政企市场的基石。


工程能力:从现场开发到产品化交付,解决实际问题

Section titled “工程能力:从现场开发到产品化交付,解决实际问题”

赢得信任只是第一步,要让AI真正发挥作用,还必须有过硬的工程落地能力。Palantir在这一方面同样有独到的方法和实力。

即时定制解决问题: 传统企业软件项目往往存在“最后一公里”难题——买来了系统却用不好。但Palantir通过前文提到的FDE模式,将优秀工程师长驻客户现场,能够第一时间根据实际需求调整软件、开发定制功能。这些工程师既精通技术又深谙业务,当发现Palantir平台的某个功能不适应客户流程时,他们可以马上编写代码修补或配置新的数据模型。例如,前线部署工程师曾在空客(Airbus)的飞机总装产线旁办公,与生产人员一起优化Foundry平台的分析模型;许多Palantir工程师甚至常驻在没有互联网连接的“气隙”环境中,为高度机密的数据系统提供支持。这种敏捷贴身的工程服务让问题在现场就得到解决,不需要漫长的反馈迭代周期。在与Palantir合作的企业看来,他们仿佛多了一支随叫随到的超级IT团队。难怪有分析指出,相比企业自行摸索开发,交给Palantir这样的专业团队来做,软件集成推进得要快得多。

打通核心数据脉络: AI要聪明,“粮草”——数据必须先行。Palantir的强项正在于帮助大型机构整合利用分散的核心业务数据,为AI模型提供高质量的养料。其旗舰平台Foundry能够自动从众多孤立的业务系统中提取数据、清洗并转换为统一的分析模型。过去企业内部项目常常耗时数月才能把不同来源的数据整理好,而引入Palantir后据说只需几天就能开始分析。“把3个月的数据准备工作缩短到3天”,这正是Palantir工程能力带来的震撼式提效。例如,在制造业领域,空客公司就借助Palantir Foundry对生产流程数据进行深入分析和优化,成功将A350客机的总装时间显著缩短。又如,在金融行业,摩根大通早期使用Palantir平台强化反欺诈风控,将分散在各部门的交易与客户数据整合,帮助满足金融危机后更加严苛的合规要求。这些案例说明,Palantir具备**连接“数据孤岛”**的非凡能力,把企业关键系统的数据脉络贯通起来,从而让AI应用建立在坚实、丰富的内部数据之上。MIT报告指出,大多数AI项目之所以停滞,是因为通用工具无法适应企业独特的流程和数据。Palantir正是通过强力的数据集成,让AI深度嵌入企业运营肌理,填补了这一鸿沟。

产品化赋能全局: 值得注意的是,Palantir并非一家咨询公司,而是一家产品公司。它并没有陷入为每个客户“定制一个完全不同系统”的泥潭,而是通过技术的抽象和复用,实现解决方案的标准化。Palantir内部的研发团队会将每次前线项目中开发的通用功能提炼出来,加入到其通用平台产品中。早年Palantir专注政府情报领域,打造了Gotham平台;后来他们把在军政项目中积累的数据整合能力提炼为企业版平台Foundry,让大型企业也能开箱即用Palantir级别的数据操作系统。这种策略相当于把一个个定制项目转化为可重复交付的模块,既保持了对复杂业务问题的适应性,又提高了交付新客户时的效率。据业内分析,Palantir正是通过把有共性的技术“卷入”其全球统一的平台,逐步从“工程师人海战术”转向“产品即服务”模式。这样一来,新客户在部署时所需的“前线工程师”数量和时间都在下降(尽管前期仍需要一定辅导),而Palantir的平台能力却在不断增强通用性。这种产品化思维使Palantir能够服务更多客户需求的同时确保高水准的质量控制。通俗地说,Palantir不仅会打一场仗,还会总结打法形成战术手册,从而在下一场仗中更快取胜。

正因为在“信任”与“工程能力”上同时发力,Palantir所推动的AI项目成功率远高于业界平均水平,成为破解“95%失败魔咒”的少数正面案例之一。MIT的报告也佐证了这一点:调查显示,与其闭门造车,不如与像Palantir这样的专业AI厂商合作,前者的成功率只有后者的三分之一左右。那些善于借助外部AI平台并深度定制落地的公司,往往也是少数实现了AI价值变现的成功样板


当我们反观那95%失败的AI项目,不难发现Palantir所秉持的原则正对应着那些教训:用对场景(专注痛点而非盲目追风口)、数据为王(打通内部数据而非只依赖通用模型)、人机协同(让一线人员参与而非空降一个黑盒工具)以及长期演进(沉淀共性产品而非一次性拼凑)。Palantir用实战证明,AI要在企业发挥价值,技术实力固然重要,但更关键的是赢得信任、深度融入。这恰如其CEO卡普所言:“单靠AI本身给不了你答案,关键在于人与AI的协作”。

对于担心AI泡沫的人们来说,Palantir的成功经验提供了一剂强心针:真正有价值的AI落地并非天方夜谭,前提是我们正视那些“看不见的基础工作”——建立信任、整合数据、改造流程、打磨产品。只有补上了这些短板,AI的魔力才能释放出来,转化为看得见的业务成果与社会价值。未来,随着更多企业借鉴这样的范式,我们有理由期待,今天95%的失败率终将被扭转,AI不再是镜花水月,而会成为驱动各行各业变革的坚实引擎。

用 Claude Code 做对「Vibe Coding」:一位 FAANG 工程师的实战流水线

今年硅谷的编码风格有了新名字:Vibe Coding。 不是摆烂,也不是“AI 一把梭”。 是把 Claude Code 当成“听话的初级工程师”,让团队更快、更稳地落到产线。

一个 终端里的智能编码代理:会规划、会读写项目、会跑命令、还能用 slash commands 固化你的工作流。


FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)

Section titled “FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)”

目标:把 Claude 当“可编排的初级工程师”,人类做架构与决策,AI 执行和回报进度。

  • 写设计文档,覆盖架构、边界、集成点。
  • 过一轮资深工程师评审,把痛苦前置。这能避免后面 AI 带着你“高速跑偏”。(源自 FAANG 帖子的流程骨架。)
  • 每个新特性 只开一次 plan-mode,产出任务清单后按清单执行,稳定性显著提高。社区实证这套“刚性流程”能把 Claude 从“偶尔失控”变“像实习生那样靠谱”。
  • 给 Claude 提业务规则 → 生成单元/集成测试 → 人审 → 再让它实现代码。
  • 多个实践与文章都强调:先测后码能显著降低幻觉与回归。

把高频动作写成命令,人人可复用:

  • /spec 生成特性规格
  • /tests <feature> 产出 TDD 测试
  • /implement <feature> 严格按任务清单提交 PR
  • /context 查看上下文使用与工具调用 官方支持自定义命令与命名空间,可把团队流程沉淀进仓库
  • 一次只做一件事;限制目录与文件范围;必要时把日志/CSV pipe 给 Claude;需要时让它自己拉取数据或读链接。
  • 双人评审 + 预发验证,来源于 FAANG 实操。
  • 在终端运行 /security-review 做临时安全扫描,再提交。
  • 追踪从“提案→上线”的 Lead Time、回归缺陷率。行业里有人能做到 ~30% 提速,但以你团队的基线为准。

我们的最小落地包(复制到你的仓库)

Section titled “我们的最小落地包(复制到你的仓库)”

建议在 repo 根目录建 .claude/commands/

.claude/commands/spec.md
You are a Staff Engineer. Convert the user story into a crisp spec:
- Problem, Scope, Non-goals
- Architecture sketch & interfaces
- Risks & open questions
Return Markdown only.
.claude/commands/tests.md
You are a TDD coach. For <feature>, generate unit & integration tests first.
- Cover edge cases, error handling, contracts
- Use project’s test framework
- Do NOT implement code yet
.claude/commands/implement.md
Follow the approved plan. Implement <feature> with tiny commits.
- Reference related tests
- Explain changes in PR body
- Ask before migrating schemas

结合 /context 查看 token 与工具占用,必要时拆分子任务。


  • 把 Claude 当黑盒,一次喂一大坨需求。
  • 跳过测试、跳过评审,只看“能跑就行”。质量会迅速失真,组织会掉进“AI 速度陷阱”。
  • 多特性并行开 plan-mode,上下文漂移、重复返工。

  • 行业大势明确:开发者在快速拥抱 AI,编码与测试环节的自动化程度持续爬升。会用 AI 的团队,边际优势会越来越大
  • 但要赢在质量,必须把 工程化流程 固化到 Claude 的命令与计划里,而不是“随手聊两句让它写”。

Vibe Coding 不是摆烂。 它是把“人类的判断 + Claude 的执行力”组装成一条可量化、可审计、可复用的产线。 从今天开始,给团队加上:先设计 → plan-mode 一次 → 测试先行 → slash commands 固化 → 安全与评审收尾。能快,也能稳。

你觉得这套流水线还缺哪一环?欢迎在评论区聊聊你的经验。

pmcc 让 Claude Code 从 PRD → Epic → GitHub Issues → 生产代码

ccpm(Claude Code PM)把PRD → Epic → GitHub Issues → 生产代码连成闭环,配合 Git worktree 和并行子代理,让你不丢上下文、不堵任务、不埋雷


做 AI 编码,最怕两件事:上下文蒸发并行乱战。 结果就是返工、冲突、进度不可见。

ccpm 的做法很“工程化”:用 GitHub Issues 做唯一真相源,每一行代码都能追溯到规格。Claude 只负责执行,状态、依赖、审计都落在 Issue 里,全团队随时接力。

核心理念No Vibe Coding,所有代码都要能追溯到明确规格。


  • 规范驱动:把 PRD 结构化拆成 Epic/Tasks,再同步成 GitHub Issues。全链路可追踪
  • 并行执行:一个 Issue 不是一个人,而是多条并行工序(DB、API、UI、测试…),在独立 worktree 里并发推进。
  • 上下文保鲜:主线程只做指挥;每个代理在自己的小上下文里干活,互不污染。
  • GitHub 原生协作:Issue = 项目状态;评论 = 审计轨迹;多位人类/AI 实时接力,无需“AI 做了啥”的会。

小加分:ccpm 推荐安装 gh-sub-issue 扩展来管理父子任务;没有扩展就自动回退到任务清单,依然能跑。


PRD → Epic → Task → GitHub 同步 → 并行执行 典型指令流(在 Claude Code 里):

Terminal window
/pm:prd-new memory-system
/pm:prd-parse memory-system
/pm:epic-oneshot memory-system
/pm:issue-start 1235

每一步都有产物:.claude/prds/*.mdepics/*/epic.md、任务 md、以及对应的 GitHub Issues。


  • Issue 做“数据库”:状态就是 Issue 状态;评论天然就是审计。透明且上手零门槛
  • 多代理并行:同一 Issue 下可拆出多条工作流并发推进,显著提升吞吐。
  • Worktree 隔离:每条并行线各自独立分支/目录,冲突和上下文污染大幅减少。
  • 命令即流程:从 /pm:prd-new/pm:issue-sync把 PM 习惯固化成可执行命令
  • 本地快、云端稳:本地先落文件、再显式同步到 GitHub,速度与可控性兼得。
  • 父子任务管理:支持 GitHub Sub-issues(扩展或原生 API),层级清晰、依赖明确。

建议把 ccpm 克隆到你的项目根目录,或把 .claude 目录拷入现有项目。初次使用跑一次初始化。

Step 1|拷入模板

Terminal window
cd /path/to/your-project
git clone https://github.com/automazeio/ccpm.git .

如果你已有 CLAUDE.md,后续可用 /re-init 合并必要规则。

Step 2|在 Claude Code 里初始化

Terminal window
/pm:init

它会:安装/校验 GitHub CLI、登录、安装 gh-sub-issue 扩展、创建必要目录、更新 .gitignore、生成 CLAUDE.md

Step 3|预热上下文

Terminal window
/context:create

现在就能开新特性了:

Terminal window
/pm:prd-new your-feature

PRD → Epic → Tasks → Issues 全套产物一键成型。

gh-sub-issue 安装命令(可选但强烈推荐):

Terminal window
gh extension install yahsan2/gh-sub-issue

支持创建/关联/列出/移除子任务。


  • PRD/pm:prd-new/pm:prd-parse/pm:prd-list/pm:prd-status
  • Epic/pm:epic-decompose/pm:epic-oneshot/pm:epic-sync/pm:epic-show
  • Issue/pm:issue-start/pm:issue-sync/pm:issue-status/pm:issue-close
  • 工作台/pm:next/pm:status/pm:standup/pm:blocked 全部内置在 ccpm 的命令集里,输入 /pm:help 可查看摘要。

  • 从 0 到 1 的 MVP:PRD 不落地最要命。ccpm 用命令把“想法”铆到 Issue 和代码上。
  • 多人并行迭代:同一 Epic 拆成多条流水线,UI/API/DB/测试同步推进,减少串行等待。
  • 存量项目重构:把风险点写进 PRD → Epic,逐步切换与回滚有据可查。
  • 外包/远程协同:Issue 当项目中台,甲乙双方随时插拔,透明交付。
  • 代码审计/合规:完整的“规格 → 代码 → 提交 → 评论”链路,审计友好。

作者也在博客与社区里分享了设计动机与实践经验,值得一读。


  • 把“主线程”当指挥台:只放目标、进度、阻塞;实现细节交给子代理的上下文。
  • 善用 /pm:next:随时切换到下一个最重要的 Issue,保持团队节奏。
  • 先装好 Sub-issues:父子任务清晰后,燃尽图、日报、跨人协作都顺。

  • 没装扩展也能跑,但父子层级会退化为任务清单;装上 gh-sub-issue 体验更丝滑。
  • 别把一切堆进主会话:让每个代理在自己的上下文里“各扫门前雪”,主线程只决策。

我把 ccpm 的定义概括成 8 个字:规格落地、并行不乱。 不靠喊口号,靠命令和产物,说话。

如果你正被“上下文丢失、并行打架、进度不可见”困住,值得立刻试一把。

你觉得最想用 ccpm 解决哪类问题?评论区聊聊。

Claude Code 集成 Cursor、VS Code、JetBrains IDE

很多人装了 Claude Code,却只会在外部终端里用。 其实它已经“打通”主流 IDE:Cursor / VS Code / Windsurf / VSCodium / JetBrains 全系。 好处很直接:一键唤起、IDE 内看 diff、自动共享选中代码与诊断信息,改完还能用 IDE 原生的对比工具过一遍。


  • 快捷唤起Cmd+Esc(Mac)或 Ctrl+Esc(Win/Linux)。

  • IDE 内 diff:更清楚的修改对比,不再困在终端滚屏里。

  • 选区/当前文件上下文自动共享:让 Claude 精准理解你正在看的代码。

  • 诊断信息(Lint/语法报错)自动共享:Claude 跟着你的 IDE 红线走。

  • 插入文件引用Cmd+Option+K(Mac)或 Alt+Ctrl+K(Win/Linux)快速插入 @File#L1-99

以上都来自官方 IDE 集成说明。


VS Code(含 Cursor/Windsurf/VSCodium)一键通

Section titled “VS Code(含 Cursor/Windsurf/VSCodium)一键通”

安装与连接

  1. 打开 IDE 的集成终端
  2. 在项目根目录运行:
Terminal window
claude

VS Code 系会自动安装扩展,随后就能在 IDE 里用到上面的能力。若你从外部终端启动,输入 /ide 即可把 Claude Code 连接到当前 IDE。

确保命令行可用

  • VS Code:在命令面板运行 Shell Command: Install ‘code’ command in PATH。这样 code .、以及 Claude 的 IDE 检测都更稳。
  • Cursor:在命令面板运行 Install ‘cursor’ to shell(也可顺手装 code)。若发现 PATH 被覆盖,检查并调整优先级。

常用配置

  • 运行 /configDiff tool 设为 auto,自动使用 IDE 的 diff 视图。
  • 仍可在任何外部终端用 /ide 绑定到 IDE 会话。

JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用

Section titled “JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用”

使用方式

  • 项目根目录打开终端,运行 claude

  • 打开 Settings → Tools → Claude Code [Beta] 调整:

    • Claude command(如 claude/usr/local/bin/claude,或 npx @anthropic/claude)。
    • WSL 用户可设为:wsl -d Ubuntu -- bash -lic "claude"(把 Ubuntu 换成你的发行版)。
  • 支持 Cmd+Esc/Ctrl+Esc 快捷唤起、诊断共享、IDE 内 diff。

ESC 无法中断? JetBrains 里 ESC 可能被“切回编辑器”占用:

  1. Settings → Tools → Terminal
  2. 取消 “Move focus to the editor with Escape” 或在 Keybindings 里删掉 “Switch focus to Editor”
  3. Apply 这样 ESC 就能正常中断 Claude 的操作。

远程开发提示 JetBrains Remote Dev 需把 Claude Code 插件装在远端主机,并重启 IDE。


  • VS Code 扩展没装上

    • 确保是在 VS Code 集成终端运行的 claude
    • 确保 code/cursor/windsurf/codium 等 CLI 可用,并允许安装扩展。
  • JetBrains 插件“没反应”

    • 确保从项目根目录启动 claude
    • 检查插件启用状态,完整重启 IDE(必要时多重启一次)。
    • 远程开发请确认插件装在远端
  • 工作流建议

    • 同一个项目根目录同时打开 IDE 与 claude,共享同一套路径与文件上下文。
    • /config 设为 diff=auto、按需开启 /vim 模式;这些都是官方推荐的实战做法。

VS Code/Cursor

Terminal window
# 1) IDE 内集成终端
claude
# 2) 外部终端接 IDE
/ide
# 3) VS Code 安装 code 到 PATH(命令面板)
Shell Command: Install 'code' command in PATH
# 4) Cursor 安装 cursor 到 shell(命令面板)
Install 'cursor' to shell

JetBrains

Settings → Tools → Claude Code [Beta]
- Claude command: claude 或 npx @anthropic/claude
- WSL: wsl -d Ubuntu -- bash -lic "claude"
Settings → Tools → Terminal
- 关闭 ESC 抢焦:取消 “Move focus to the editor with Escape”
或删除 “Switch focus to Editor” 绑定

  • PR 驱动:需求 → 在分支里 claude 规划与改动 → IDE 内看 diff → 本地跑测 → 提 PR。
  • Pair-Agent:人盯规划,Claude 执行,IDE 实时看差异与诊断。
  • 多端一致:统一在项目根目录启动,保证所有人看到相同上下文与路径。 实战经验来自官方“最佳实践”文章的建议,结合我们日常使用总结。

装好不是目标,把“人机协作闭环”嵌进 IDE 才是。 今天就把你的 Cursor/VS Code/JetBrains 接上 Claude Code,试一遍 一键唤起 → IDE 内 diff → 诊断共享 → 合 PR 的全链路。 你会发现:代码改得更准,沟通更少,节奏更快

思考题:你的团队更卡在“理解老代码”还是“安全改动大模块”?评论区说说你希望 Claude 在 IDE 里多做哪一步?

Codex 升到 0.23.0:一键 /model 切到 OpenAI 高推理版 GPT‑5

Codex CLI 0.23.0 这波更新,直接把「模型&推理强度」做成了一键切换/model 打开菜单,选 GPT‑5 + High reasoning,复杂任务立刻稳了。


很多人已经在用 Codex 写代码、跑测试、改文件。但以前想换模型、调推理强度,要么改配置,要么重启。现在不用了。0.23.0 新增 /model,还能把 GPT‑5 的推理力度切到 High,甚至支持新出的 Minimal 档位。效率和手感,直接上一个台阶。


  • Slash 命令:终端里直接 /model运行中切模型/推理强度;同时新增 /approvals 控制审批。
  • 推理控制:支持在运行时调整 reasoning effort;GPT‑5 额外支持 minimal(更快、少推理 token)。
  • 登录与版本:Plus/Pro/Team 的 ChatGPT 账号可直接在 Codex 里用上 GPT‑5;本次稳定版为 0.23.0(8 月 20 日)

背景知识:OpenAI 在 GPT‑5 中正式开放了 reasoning_effort 参数(minimal | low | medium | high),控制「想得多不多」。力度越高,通常推理 token越多、延迟也更高;minimal 用于更快的响应


安装 / 升级

Terminal window
npm i -g @openai/codex
# 或:brew install codex
codex --version # 确认看到 0.23.0

(NPM/README 官方安装方法如上。)

登录(ChatGPT 计划直连 GPT‑5)

Terminal window
codex
# 选择 “Sign in with ChatGPT”,Plus/Pro/Team 均可

登录后,Codex 会让你直接用到计划内的最新模型(包含 GPT‑5)。

两种切换姿势

  • 命令行直指高推理(准确写法用 --config 覆盖):

    Terminal window
    codex -m gpt-5 --config model_reasoning_effort="high"

    --model/-m--config 为官方文档的标准写法。)

  • 交互式一键 /model:进入 TUI 后,直接输入 /model,选择 gpt‑5,再选择 High(或 Minimal/Low/Medium)。

想默认高推理?把它写进 ~/.codex/config.toml,或者每次用 --config 覆盖一把。


什么时候用 High reasoning,什么时候用 Minimal/Medium

Section titled “什么时候用 High reasoning,什么时候用 Minimal/Medium?”

适合 High 的场景

  • 复杂重构 / 设计权衡:例如「把 MVC 项目拆成分层 + 依赖倒置,补齐测试」。需要系统性推理和多步计划。
  • 跨语言迁移:如从 Python → Go 且保留并发/错误语义。需要细致的 API/并发模型映射。
  • 疑难 bug 诊断:复杂堆栈、竞态、边界条件,靠更长的思考链更稳。

适合 Minimal/Medium 的场景

  • 脚手架、批量修 lint、重命名,追求速度且不需要长链路推理。minimal 会大幅减少推理 token、显著提速。

我在本地的推荐工作流(可直接抄)

Section titled “我在本地的推荐工作流(可直接抄)”
  1. 开场就高推理(复杂任务)
Terminal window
codex -m gpt-5 --config model_reasoning_effort="high" "为支付模块设计防重试与幂等策略,并补 8 条单元测试"

然后用 /approvals 收紧自动修改权限,重要变更逐条确认。

  1. 中途降档提速 调试通过后,输入 /model 把推理改成 mediumminimal,进入批量小改模式。

  2. 拆解多步任务 把一个大目标拆成多轮:设计 → 接口 → 实现 → 测试。官方也建议**“多回合、一步一回合”**,实际效果更稳。

小贴士:推理力度越高,推理 token越多,延迟可能更高;卡顿时就 /model → minimal/low


  • 我用 ChatGPT 登录时,感觉推理被锁在 Medium? 早期社区确有反馈;但 0.23.0 已在 CLI 内支持运行时切换 /model 与 reasoning effort,实际可在 TUI 里动手改。

  • 命令行切换和配置冲突?命令行 --config 为准(单次覆盖),长期策略写进 ~/.codex/config.toml

  • Minimal 到底有什么用? 官方说明:几乎不产生日志式推理 token,面向对首 token 延迟极其敏感的场景。


Terminal window
# 安装 / 升级
npm i -g @openai/codex && codex --version
# 登录(ChatGPT 计划)
codex # 选择 Sign in with ChatGPT
# 开高推理(复杂任务)
codex -m gpt-5 --config model_reasoning_effort="high"
# 交互式切换(运行中)
/model # 在 TUI 里挑 gpt-5 + High / Medium / Low / Minimal
# 审批策略(更安全)
/approvals

(安装/登录/Slash 命令与本次更新项均见官方 README / Release 说明。)


Codex 0.23.0 让「切模型、调推理」从配置活,变成了一键动作复杂任务就上 High,批量小改就用 Minimal/Medium。这才是工程里的「准心」。去把你这个周末的项目,干成。

你会把 High reasoning 用在什么场景?**你觉得呢?**欢迎在评论区聊聊你的最佳实践。

Uzi 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

Uzi 是一个命令行工具,用 Git worktree + tmux 把多个 AI 编码代理并行跑起来,每个代理各自一套依赖、各开一个开发端口,写完用 checkpoint 一键合到主分支。


一个代理慢悠悠改页面,另一个代理同时重构后端,再来一个代理写测试。 多线推进的效率,远超“排队等模型”。这就是 Uzi 的工作方式:同一仓库,分枝隔离并行执行可视化监控一键合流。官方 README 给到了完整的安装、配置与工作流示例,且在 2025-06-03 发布了 v0.0.2 版本。


高并发试错:一次起 3~5 个代理,各自探索不同实现或风格,挑最优解合并。 真正的“隔离”:用 Git worktree 给每个代理开独立分支与目录,不互相污染。 自动开发环境:每个代理自动起 dev server,并分配端口,方便你即时预览。 全程托管:tmux 管会话、uzi auto 自动“回车确认”工具调用、ls -w 实时看进度和 diff。 一键收官checkpoint 把选中的代理分支 rebase+commit 回当前分支。

行业观察:也有用容器把代理隔离并行的方案;Uzi 走的是 worktree 路线,在 monorepo 里也很顺手。InfoQ 近期报道也点名对比了这两类思路。


依赖:Git、tmux、Go,以及你常用的 AI 工具(如 Claude、Codex、Cursor、aider 等)。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
# 确保 GOBIN 在 PATH 里
export PATH="$PATH:$HOME/go/bin"

根目录新建 uzi.yaml

devCommand: cd astrobits && yarn && yarn dev --port $PORT
portRange: 3000-3010

写法要点

  • devCommand 里把依赖安装也写上,因为每个代理在独立 worktree,需要自己装依赖。
  • $PORT 必须留作占位,Uzi 会自动分配端口。
  • 官方还给了 Next.js / Vite / Django 的示例行。

推荐工作流:从任务到合并,5 步走

Section titled “推荐工作流:从任务到合并,5 步走”

1)并行开工

Terminal window
uzi prompt --agents claude:3,codex:2 "Implement a REST API for user management with authentication"

指定多代理与数量,也支持 random 随机命名。

2)无人值守

Terminal window
uzi auto

自动“回车确认”工具调用与续写提示,跑着就行。

3)盯盘看进度

Terminal window
uzi ls -w

watch 模式每秒刷新,能看到 AGENT/MODEL/DIFF/ADDR/PROMPT 等。

4)中途指挥

Terminal window
uzi broadcast "Make sure to add input validation"
uzi run "npm test"

广播额外指令;也能在所有代理里跑同一命令(带 --delete 跑完关窗)。

5)选优合入

Terminal window
uzi checkpoint funny-elephant "feat: add user management API"

把命中的代理分支 rebase 到当前分支并提交信息。

开发者实战文章里也给过类似 checkpoint/kill 的用法推演,便于你按需裁剪。


一个界面组件给 3 个代理:极简风 / Material 风 / 企业风。 每个代理都起了本地端口,你直接多窗口对比,挑最好的一键 checkpoint

后端认证要不要换库?要不要分层?把 2~3 条方案平行跑,读 diff 看复杂度、读端口看性能感知,选更稳的路线。

一个代理写 API,一个写 e2e 测试,另一个写文档与示例。最后只把“都跑通”的那个合入,其它分支随时 kill 清理。


  • Uzi(worktree):轻、快、Git 原生,适合同仓多实验;对 tmux 友好。
  • 容器方案:更强隔离、更重运维、适合跨语言/系统依赖的极端场景。
  • 行业观点:InfoQ 指出 Uzi 的 worktree 隔离在 monorepo 场景能避免代理互相干扰。

  • 端口冲突portRange 够大,且别被占用。
  • 依赖重复安装:把 npm/pip install 写进 devCommand,每个代理自己装。
  • tmux 不熟:建议学会基本窗口/面板切换,提高可见性。
  • 成本与噪音:并行=更多 tokens;建议小任务先试 2~3 个代理,再扩大编队。(经验法,结合社区讨论的“并行心智负担”提醒。)
  • 安全与密钥:不要把敏感 env 硬编码进 prompt,按环境变量注入。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
export PATH="$PATH:$HOME/go/bin"
# 配置
# uzi.yaml: devCommand + portRange
# 并行开工
uzi prompt --agents claude:2,random:2 "Build a todo app with React"
# 无人值守
uzi auto
# 监控/广播/批量命令
uzi ls -w
uzi broadcast "Add error handling"
uzi run "npm test"
# 合并/清理
uzi checkpoint agent-name "feat: ..."
uzi kill agent-name | uzi kill all

并行不是炫技。它是让团队“同时走多条正确路”的生产力工具。 把 Uzi 接入你的日常流,先小规模试点,再扩到复杂项目。走通一次,你很难回去排队等模型的旧节奏。

思考题:你会先把哪个项目拆成 3 条并行路线?为什么?

VibeTree 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

VibeTree = 多 Git worktree 并行开发 + 持久终端 + Claude Code 一键接入,不切分支、不丢上下文,效率起飞。


写功能、改线上、再回到大重构……不停 git stash,上下文来回丢,太伤流。 VibeTree 这款开源桌面应用,把 并行 git worktree每个分支自带持久终端Claude CLI 深度整合 整到一起。一个项目开 N 个“分身”,各自跑任务、各自聊 Claude。


  • 并行开发:一仓多 worktree,同步推进功能/热修,告别 stash
  • 持久终端会话:每个 worktree 自带终端,状态不丢。
  • Claude CLI 集成:在每个终端直接 claude,用 /ide 连接 VS Code/Cursor,文件上下文对齐。
  • 一键打开 IDE:从 VibeTree 直达 VS Code 或 Cursor。
  • 多仓 Tab 管理:多项目并行,界面切换顺滑。
  • 跨平台:macOS / Windows / Linux,提供安装包。当前最新版 v0.0.1(Alpha)

小提醒:仓库 Issues 里有用户反馈的早期问题,例如 Windows Defender 误报macOS 15.6 ARM64 包被标记为损坏 等,安装前可以先看一眼。


为什么用 worktree,比多 clone/频繁切分支更香?

Section titled “为什么用 worktree,比多 clone/频繁切分支更香?”
  • 一仓多目录:每个目录就是一个分支的“工作副本”,共享 .git轻量且互不干扰。
  • 切换零成本:线上告急?直接进 hotfix 的工作目录,功能分支不受影响。

  1. 前往 Releases 下载:
  • macOS:.dmg(Intel & Apple Silicon)
  • Windows:.exe
  • Linux:.AppImage.deb 双击安装即可。
Terminal window
# 安装依赖
npm install
# 开发调试
npm run dev
# 生产构建
npm run build
# 打包应用
npm run package

以上脚本已在仓库配置好。

前置依赖:已安装 Git;如需 AI 能力,建议安装 Claude Code CLI(npm 一条龙,几分钟起飞)。


  • 新建功能分支 worktree,同时再建一个 hotfix worktree。
  • 两边各有一个持久终端,各聊各的 Claude。线上炸了也不慌
Terminal window
# 在项目根目录旁创建两个工作目录(示例)
git worktree add ../proj-feature -b feature/checkout main
git worktree add ../proj-hotfix -b hotfix/urgent main

原理:worktree 让“一个仓库,多套工作目录”成为原生能力。

  • A worktree 做大重构;B worktree 保持干净基线,随时对比/回归。
  • 两个终端里开 claude,让 AI 帮你“拆分任务 + 撰写测试”。
  • 在对应 worktree 的终端里:claude → 输入 /ide,即刻连接当前打开的 VS Code/Cursor。
  • Claude 与 IDE 共享同一项目根目录,上下文一致,沟通更准。
  • VibeTree 的 Tab 界面 同时开多个仓库,卡点切换不乱线。
  • 黑/白主题跟随系统,手动也能切。
  • 终端里 claude 即用;需要个性化外观、状态行等,可用 /config 调整。

Terminal window
# ① 安装 VibeTree(或源码构建)
# ② 准备两个工作目录(feature & hotfix)
git worktree add ../app-feature -b feature/payflow main
git worktree add ../app-hotfix -b hotfix/checkout main
# ③ 打开 VibeTree:在两个 worktree 里各开一个终端
# ④ 终端输入 claude;如需连 IDE,输入 /ide
  • 现在你可以:在 feature 里写新功能;hotfix 里复现并修复线上。
  • 两个空间互不打扰,两个 Claude 同时在线

路线图与已知问题(透明预期)

Section titled “路线图与已知问题(透明预期)”
  • 路线图:将支持 Claude 完成/需要输入的系统通知移动端访问 Claude Code 等。
  • Alpha 状态:请关注 Issues 区的 Win 误报macOS ARM64 包“损坏”提示隐私文档补充首次启动引导 等讨论。

  • 独立开发者/小团队:需求多而杂,必须并行推进。
  • AIGC 工作流玩家:想把 Claude 真正嵌入分支与终端。
  • 运维与应急:线上一响,切到 hotfix 工作目录,零切换成本

VibeTree 不是再造 IDE,它是让“并行 + AI”落地的操作系统级小工具。 把“一个仓库多工作区”的底层优势,和 Claude 的上层智能,组合成可复制的日常节奏。 你会惊讶:不切分支的每一天,都更专注。

你觉得 VibeTree 最打动你的点是哪一个?评论区聊聊。

Claude Code 伴侣:一键号池切换、第三方模型接入、日志可观测

给常年折腾 Claude Code 的你,一个更稳、更透明的“中控台”。


用 Claude Code 写代码很爽,但上游端点不稳、来回切换麻烦、日志抓不到就很心累。 Claude Code 伴侣(Claude Code Companion)把这一切打包成一个本地 API 代理:拖拽排序就能优先级切换号池,异常会自动故障转移,还自带可视化管理台完整请求/响应日志。新手也能 10 分钟起飞。


支持多端点优先级重试 + 故障转移。某个号池抽风,自动切到下一个,恢复后再拉回。你几乎感知不到抖动

内置 /admin 管理台,能增删改端点、看实时日志、配路由规则。排障从“猜”变“看”。

原生 Anthropic,也支持OpenAI 兼容入口,像 OpenRouter、火山千问、Moonshot K2、GLM 这类都能接;配好默认模型名就行。

一行环境变量即可关掉非必要上报/遥测;企业或重视隐私的个人很刚需。


  • 多端点负载均衡 + 故障转移
  • 上游响应格式校验(不合规就重连)
  • OpenAI 兼容模型接入
  • 智能故障检测/恢复
  • 标签路由(按路径、Header、内容分流)
  • 请求日志 + Web 管理(/admin) 以上均出自官方 README。

到 Releases 选你的平台(Win/Linux/macOS Intel/ARM),解压即可。单文件运行,无外部依赖

双击或命令行启动,目录会生成默认 config.yaml

浏览器访问 http://localhost:8080/admin,在 Endpoints 页添加上游端点(URL、鉴权、类型:Anthropic / OpenAI 兼容)。 拖拽即可调整优先级,实时生效

在 Claude Code 运行环境里设置:

Terminal window
# 必备:把请求打到本地代理
export ANTHROPIC_BASE_URL=http://localhost:8080
# 必填但可随意:非空即可
export ANTHROPIC_AUTH_TOKEN=dummy-token
# 建议:拉长客户端等待,避免上游超时导致前端先断
export API_TIMEOUT_MS=600000
# 建议:关闭非必要流量(遥测/错误上报/bug 命令/自动更新)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

说明:ANTHROPIC_AUTH_TOKEN/CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 等变量均在官方文档有说明或等价配置;BASE_URL 路由 LLM 网关也在官方给出标准做法。

补充:如果你接 OpenAI 兼容网关(如 LiteLLM/OpenRouter 等),官方推荐统一网关地址方式: export ANTHROPIC_BASE_URL=https://<your-gateway>(再配 token/默认模型)。


把多个号池/上游按常用→备用顺序添加,靠拖拽排序。某个失效会自动拉黑并转发到下一个;恢复后后台检测再放行。无需重启代理或 Claude Code

  • 官方提供 Anthropic 形态入口的(如 GLM、K2),直接当 Anthropic 端点用。
  • 只有 OpenAI 兼容入口的(如 OpenRouter、部分国内云),添加OpenAI 兼容端点,把默认模型名填上即可。 这套接法在 README 已明确说明,另外像 DeepSeek 也公开了 Claude Code 直连指引(设置 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN、模型名)。

基于请求路径、Header 或内容动态分流到不同端点,适合做稳定性灰度成本路由场景特化

/admin 查看实时请求/响应日志,定位 4xx/5xx、超时点、返回格式异常;支持端点拉黑/恢复观察。


进阶:把它当“企业级 LLM 网关”的前哨

Section titled “进阶:把它当“企业级 LLM 网关”的前哨”
  • 与 LiteLLM/自建网关配合:官方文档给了LLM Gateway方案,统一鉴权、用量追踪、成本控制、审计与模型路由。Claude Code 通过 ANTHROPIC_BASE_URL 对接即可。
  • 更精细的隐私/遥测开关CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 一把梭,也可分别用 DISABLE_TELEMETRYDISABLE_ERROR_REPORTINGDISABLE_BUG_COMMANDDISABLE_AUTOUPDATER 等变量精确控制。

Q1:Claude Code 不走代理? 检查是否在同一 shell设置了 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN;项目级 settings.json 也能统一注入 env

Q2:第三方模型报 400/格式不符? OpenAI 兼容端点需选“OpenAI 兼容”类型,并正确设置默认模型名;伴侣会校验返回是否符合 Anthropic 协议,不符会触发重连。

Q3:我能用自带的超时控制吗? 可以。把 API_TIMEOUT_MS 调大,避免前端先超时导致误判失败;Bash/MCP 等也有各自的超时变量。


  • 使用第三方网关/号池前,确认服务合规条款允许数据不被滥用
  • Claude Code 官方已提供数据使用关闭非必要流量的选项,强烈建议开启。

Claude Code 伴侣的定位很清晰:做你本地的“稳定中控 + 透明路由器”。 从今天开始,把端点管理、模型切换和问题排查“图形化”,让 AI 编程真的省心

你觉得还应该加哪些“自动化小功能”?例如成本优先/速度优先一键切换?评论区见!


macOS/Linux:

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8080
export ANTHROPIC_AUTH_TOKEN=dummy-token
export API_TIMEOUT_MS=600000
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
claude

Windows PowerShell:

Terminal window
$env:ANTHROPIC_BASE_URL="http://localhost:8080"
$env:ANTHROPIC_AUTH_TOKEN="dummy-token"
$env:API_TIMEOUT_MS="600000"
$env:CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC="1"
claude

如需接入网关(如 LiteLLM/OpenRouter),把 ANTHROPIC_BASE_URL 改成网关地址即可。

Qoder:阿里发布一款“会自己干活”的 AI IDE

Qoder:阿里发布一款“会自己干活”的 AI IDE

Section titled “Qoder:阿里发布一款“会自己干活”的 AI IDE”

Qoder 把“自动规划+自动编程+自动测试”做成了一个闭环,直接把 AI “写规格→开工→验收”搬进了 IDE 里。


这两年 AI IDE 最卷的,不是补全,而是“代理式编程(Agentic Coding)”。

Qoder 就是冲着这个来的:Quest Mode 负责拆任务、写 Spec、跑执行;Repo Wiki 负责把仓库一口气读懂;Memory/Rules 让它越用越懂你。定价也走通了会员 + Credits 的闭环,已经不靠广告生存。


1)Quest Mode:把需求一句话丢给代理,等报告验收

Section titled “1)Quest Mode:把需求一句话丢给代理,等报告验收”
  • 支持自然语言下单:功能开发、修 bug、重构、补测都行。
  • 会先自动产出技术规格(Spec),你可编辑确认;再异步执行,最后生成Task Report
  • 全程有 Action Flow 进度与日志;随时加新要求它会动态改计划

这是真正在 IDE 里落地的“规格驱动开发”。

2)Repo Wiki:把你的仓库变成 AI 可读的“知识库”

Section titled “2)Repo Wiki:把你的仓库变成 AI 可读的“知识库””
  • 打开项目或 Git 变更后自动构建 Wiki(4k 文件量级约 120 分钟)。
  • 上限 6,000 文件,针对架构问答定位代码加新特性/修复特别快。

3)Context/Tools/MCP:把“对的上下文”塞进模型,还能接外部工具

Section titled “3)Context/Tools/MCP:把“对的上下文”塞进模型,还能接外部工具”
  • @file/@folder/@gitCommit/@image/@rule 快速喂上下文。
  • 内置项目搜索、文件编辑、终端执行、问题扫描、网页检索等工具。
  • 支持 MCP,可接 API、数据库、本地工具;上手先用 SSE,进阶再玩 STDIO。

4)Memory & Rules:越用越懂你,还能团队共享“规约”

Section titled “4)Memory & Rules:越用越懂你,还能团队共享“规约””
  • 长期记忆:个人偏好 + 项目记忆,冲突时以 Rules 为准。
  • 项目规则.Qoder/rules,支持“始终应用/模型决策/按文件匹配”。

5)Next Edit Suggestion(NES):不只补全,还会“接着改对的地方”

Section titled “5)Next Edit Suggestion(NES):不只补全,还会“接着改对的地方””
  • 一键 Tab to Jump 到目标位置;重命名、重构、批量补注释都更顺。

① 下载与安装 前往下载页安装(Windows/macOS/Linux 均支持),双击即可。

② 登录 IDE 右上角头像进入登录页面,完成账号绑定。

③(可选)公司内网/代理 若需走 HTTP 代理,按官方指引在 Qoder Settings → Proxy 配置。

提示:快捷键在 Keyboard Shortcuts 页面一览全掌握。


  • Free($0/月):带 2 周 Pro 试用Completions & Next Edits 不限量;Chat/Agent 有有限 Credits
  • Pro(预览期免费):在 Free 基础上,2,000 Credits(Chat/Agent 请求);解锁 Quest Mode / Repo Wiki
  • Teams(即将上线):Admin、SSO、集中结算。
  • Credit Packs:用完可随买随充。

价格表(预览期)

方案价格权益要点
Free$0/月2 周 Pro 试用Completions & Next Edits 不限量;Chat/Agent 有限 Credits
Pro(预览期免费)$TBD/月2,000 Credits(Chat & Agent);解锁 Quest Mode / Repo Wiki
Teams(即将上线)$TBD/用户/月Admin、SSO、集中结算
Credit Packs按需购买用完可加油,灵活扩容

以官网实时信息为准;预览期细节可能调整。

Credits 怎么扣? Chat、Agent、Quest 等都会按模型价格 × token扣;失败请求不扣;月配额用尽会回落到基础模型,下月重置。

行业对标:Cursor 采用“订阅 + 请求限额/代理用量”的混合模式;Claude Code 也走会员+增值的路径。说明 AI IDE 的会员化闭环已跑通,这也是国内竞品跟进的底层原因。


推荐使用场景(给产品/后端/前端/DevOps 的落地清单)

Section titled “推荐使用场景(给产品/后端/前端/DevOps 的落地清单)”

A. 功能直达:一口气做完“规格→实现→验证”

  • 例:给现有服务加“多租户计费”。把需求丢给 Quest Mode,让它先产 Spec,再开工与回归报告。

B. 老仓库快速上手

  • 打开项目等它生成 Repo Wiki,先问“订单流怎么走”“哪个模块依赖 A/B/C”。

C. 大规模重构/替换框架

  • Rules 约束代码风格与注释规范,再让 Agent 批量改;NES 辅助逐步落地。

D. 跨语言迁移/补单测

  • @folder + @gitCommit 选定范围,让代理定位关键路径补单测生成差异报告

E. 接第三方系统/私有工具

  • 通过 MCP 接进你们的内部 API、数据库、脚本,把“查数/回写/批处理”自动化。

F. 团队协作与知识沉淀

  • Repo Wiki + Memory 固化公共知识;Rules 进仓库随代码走,新人当周就能输出。

快速起飞:我的 30 分钟上手剧本

Section titled “快速起飞:我的 30 分钟上手剧本”
  1. 安装并登录(5 分钟)。
  2. 配置代理(内网必做,3 分钟)。
  3. 打开业务仓库,等 Repo Wiki 初始化(后台跑,不影响干别的)。
  4. Rules 写下“项目注释/提交信息/测试要求”的三条硬规
  5. 开一个 Quest:描述一个明确的小功能,先看它产出的 Spec,必要时补充边界与验收标准。
  6. 观察 Action Flow,中途追加需求,看它如何调整计划。
  7. 根据 Task Report 决定 Accept/Discard;用 NES 快速微调。

  • Qoder 的价值在于:从“补全”跃迁到“交付”。有 Spec、有计划、有回执。
  • 体验关键点:Repo Wiki 的“面向架构的上下文”、Rules 的“可治理”、MCP 的“可扩展”。
  • 商业模式:会员 + Credits 已成行业共识,Qoder 的“预览期免费 + 试用 Pro + 额外 Credit 包”,对迁移成本很友好

  • 你准备把哪些重复性改动交给 Quest?
  • 你们团队最该沉淀成 Rules 的三条规范是什么?
  • 如果接入 MCP,你最想让代理人摸哪个内部系统?

谷歌 Gemini:一套完整的 AI 教育教学系统:老师分配 AI 专家,学生自定测验,隐私与合规

这不是“又一个聊天机器人”。这是把学习流程课堂管理内容生产测评反馈隐私合规一锅端的系统级升级。


这届 ISTE 大会后,Google 直接把 Gemini for Education 做成了学校级的 AI 基建:教育版 Gemini(基于 2.5 Pro)免费随 Workspace 教育版开放,并把老师、学生、管理员的关键动作全串起来。

更猛的是,老师能创建并分配“Gems(AI 专家)”,NotebookLM 一键出视频概述当微课,Forms 里有 Gemini 自动出题,Vids 里用 Veo 3 生成 8 秒带音效短视频。学生Canvas 出个性化测验,答案里还会给交互式图表帮助理解。管理员能在 Vault 里检索全域 Gemini 对话,看使用报告与合规留痕。

最关键的一句:教育场景里,聊天数据不用于训练模型(企业级数据保护)。


一、系统全景:教育场景 × AI 的新范式

Section titled “一、系统全景:教育场景 × AI 的新范式”
  • Gemini for Education:基于 Gemini 2.5 Pro,默认接入高阶模型、管理员可控,免费包含在 Workspace 教育版。
  • Gemini in Classroom:对所有教育版免费开放,30+ 新 AI 能力用于备课、差异化教学、词汇表等。
  • Teacher-led AI:老师将 Gems 与 NotebookLM 笔记本直接分配给学生(Classroom & LTI 接入 Canvas/Schoology)。
  • NotebookLM 视频概述:把资料一键生成讲解视频与要点。
  • Veo 3 in Vids:8 秒短视频,原生音效/旁白,适合实验演示、课程预告。
  • Gemini 表单:Docs/Slides/PDF 一键生成测验/问卷,并可 AI 总结作答。
  • Gemini Canvas 测验:18+ 学生可自生个性化练习,正向扩展到未成年。
  • 隐私与合规Common Sense 隐私印章Vault 可检索对话、管理员可设定留存策略与报表。


二、老师这样用:备课提效 × 差异化教学

Section titled “二、老师这样用:备课提效 × 差异化教学”

高频用法清单

  1. 5分钟备出“分层课堂”脚本

    • 让 Gemini 依据同班三档水平,生成“同主题不同深浅”的讲稿与练习;自动附例句与可视化提示。
  2. 自建“交互式模拟”Gem(AI 专家)

    • 把本周作业+阅读材料上传,生成可追问的互动专家;课堂前分配给学生预习,课堂后用于巩固。可共享给同备课组。
  3. NotebookLM → “视频概述”微课

    • 教学大纲/讲义一键生成 1–3 分钟视频,适合翻转课堂与缺勤补课。
  4. Forms 一键出题 + AI 批阅摘要

    • 用“帮我创建表单”,从 Doc/Slides/PDF 生成测验;提交后自动摘要答题要点与薄弱项。
  5. Vids × Veo 3 生成演示短视频

    • 8 秒“实验/现象”演示开场,附音效;吸睛又省时。

三、学生这样学:自适应练习 × 可视化理解

Section titled “三、学生这样学:自适应练习 × 可视化理解”
  • Gemini Canvas 个性化测验:输入复习范围,系统按薄弱项出题,逐步反馈。
  • 交互式图表 / 图解:Gemini 的回答中加入互动可视化,帮助理清复杂概念与多步推理。
  • 接收课堂 Gems 与 NotebookLM:随堂接入老师分配的“AI 专家”和资料本,边学边问。

自习提示词示例(可直接粘贴)

  • 「根据我这份错题本,生成 15 题混合难度测验,每题给一步提示,不要直接给答案。」
  • 「用三张图分别解释‘熵增’的直觉、公式推导关键步、现实中的类比。」

四、管理员视角:合规、可见、可控

Section titled “四、管理员视角:合规、可见、可控”
  • 权限与年龄分级:控制谁可用 Gemini/NotebookLM,18+ 功能差异可配置。
  • Vault eDiscovery按域检索 Gemini 对话、导出法务留存;Workspace 更新已覆盖教育版。
  • 使用报告与留存策略:查看谁在用、用多少,设定聊天保存与自动删除周期。
  • 隐私背书Common Sense 隐私印章,教育账户聊天不用于模型训练、不做人工审阅。

额外可选:开启 Temporary Chats(临时对话),不计入个性化与训练,短时留存。


五、落地范式:一节课怎么从 0 到 1

Section titled “五、落地范式:一节课怎么从 0 到 1”

目标:60 分钟《电磁感应》

  1. 课前:老师用 NotebookLM 生成“视频概述”+ 词汇表;Vids 用 Veo 3 做 8 秒引入短片。
  2. 课堂:分配“交互式模拟”Gem,分组追问“法拉第实验”的变量影响;Gemini 回答中嵌入互动图解。
  3. 测评:Forms 自动出一份随堂测验,课堂结束后 Gemini 总结班级薄弱项。
  4. 课后:学生用 Canvas 生成个性化测验,针对错题重练。
  5. 管理:管理员在 Vault 留痕并导出抽样对话,合规无忧。

六、边界与风险:别把 AI 当“答案贩卖机”

Section titled “六、边界与风险:别把 AI 当“答案贩卖机””
  • 学术诚信:建议把 AI 用在“启发与结构化”,避免直接产出可抄袭的终稿。
  • 数据最小化:教育账号已默认“不用于训练”,仍建议避免上传敏感身份信息。
  • 能力与依赖:AI 擅长“垫高下限”,注意培养自解释多步推理能力,防止过度依赖。
  • 可追溯性:重要考试周,配合 Vault 抽检与使用报告,形成学校自有“AI 使用准则”。

Google 这波是把“AI + 教育”的工具级整合做成了系统级范式。老师有“AI 同事”,学生有“AI 学伴”,管理员有“AI 合规仪表盘”。内容、流程、隐私、治理四条线同时闭环。

现在就能做的第一步:选一节下周要上的课,按上面的“0 到 1”范式跑一遍。 你会发现,AI 不只是在“帮你”,而是在“重排课堂”。你觉得呢?


Claude Code 平替:iflow-cli 把 AI 编码塞进终端

iFlow CLI 把“多智能体 + MCP 工具 + 工作流自动化”塞进你的终端,写代码、改 Bug、管文件、跑数据、连 GitHub Actions,一条龙搞定。


写代码时老在 CLI 和浏览器间来回切?

想让“AI 同事”直接在你的本地项目里动手干活?

这篇给你一把顺手的“瑞士军刀”:iFlow CLI。它能分析仓库、分解任务、调用子代理、联动 MCP 工具,从文件整理复杂自动化都能上。


  • 子代理(SubAgents):把一个 CLI 变成“专家小队”,按领域协作;可用 /agent 管理。
  • 内置开放市场:一键装 MCP 工具与子代理,像装插件一样扩容能力。

官方页面也强调:免费模型市场MCP 市场Agent 市场,面向开发自动化场景。

  • 默认:只读不动手。
  • 计划模式:先出方案再执行。
  • 接受编辑:仅改文件。
  • YOLO最大权限、可执行任何操作(慎用)。

参考同类工具的“无权限确认模式”(如 Claude Code 的 --dangerously-skip-permissions),确实高效,但要注意安全边界。

  • 支持在 CLI 直接贴图、搜索联网、对话自动压缩与恢复
  • VS Code / JetBrains 插件GitHub Actions 官方工作流动作,CI 里能直接“跑 AI”。

维度iFlow CLIClaude CodeGemini CLI
定位多智能体 + MCP 市场 + 自动化的“终端 AI 团队”代理式编码为核心的终端工具面向开发者的开源 AI 终端代理
费用/配额官方强调免费模型市场可用走 Anthropic 计费链路官方预览期免费额度(Gemini 2.5 Pro,较高 RPM/日配额)
权限/模式默认/计划/接受编辑/YOLO 四模式计划模式、可跳过权限(危险)ReAct 循环 + 工具/MCP
扩展内置 Open Market 装 MCP/子代理支持自定义子代理、MCP原生 MCP、搜索、Code Assist 集成

依据:iFlow README 与平台页;Claude Code 官方文档(计划模式、子代理、权限机制);Gemini CLI 官方博文与文档。


系统需求:macOS 10.15+ / Ubuntu 20.04+ / Debian 10+ / Windows 10+,Node.js 22+,建议 Bash/Zsh/Fish。

Terminal window
bash -c "$(curl -fsSL https://cloud.iflow.cn/iflow-cli/install.sh)"

Terminal window
npm i -g @iflow-ai/iflow-cli
  1. 安装 Node.js(官网安装包)
  2. 重新打开 CMD/PowerShell
  3. npm install -g @iflow-ai/iflow-cli
  4. iflow 启动
  • 提供 nvm 安装包与 Node/npm 镜像指令,装好后同样 npm -g @iflow-ai/iflow-cli
  • 建议使用 iFlow 原生认证;也可走 OpenAI 兼容 接口。
  • API Key 在 iFlow 个人页生成后,按提示粘贴到终端即可。

Step 1:进入仓库并启动

Terminal window
cd your-project
iflow

Step 2:/init 建模

/init
> 读取 requirement.md,生成技术方案文档并实现

会自动生成 IFLOW.md,记录结构与上下文。

Step 3:工作流执行

  • /agent 调度专家小队
  • /mcp 安装/启用工具
  • iflow --resume 接着聊
  • iflow -h 看全部命令

想在 CI 里跑?用 iFlow CLI GitHub Action,支持自定义模型、超时、工作目录、MCP 服务器配置,还能把执行结果写到 PR Summary。


推荐的 10 个日常工作流(含示例话术)

Section titled “推荐的 10 个日常工作流(含示例话术)”
  1. 仓库体检: “分析项目架构、关键依赖与潜在安全点,给出改进建议与风险优先级。”(可配 /init

  2. 需求→技术方案→实现: “根据 requirement.md 产出技术设计与任务清单,再分配子代理完成编码与自测。”

  3. Bug 追踪: “请求后出现 NPE,定位根因、给出复现脚本与补丁 PR。”

  4. 自动文档(配 CI): “/init 后生成 API 文档/架构图,合并 PR 时更新。”(GitHub Action 示例已内置)

  5. 数据分析: “读取 sales.xlsx,输出同比/环比与可视化图表,附洞察摘要。”

  6. 文件治理: “把桌面文件按类型归档,重命名为 YYYY-MM-DD_序号。”

  7. 信息检索: “比较 iPhone 最新价格并给出性价比推荐,列渠道与备注。”(支持搜索)

  8. 投资小脚本: “每天抓取指定股票收盘价,邮件推送涨跌幅 Top 5。”

  9. 企业协作集成(MCP): 安装 DevOps / 文档 / 检索类 MCP 服务器,和企业套件打通。示例:阿里云 DevOps MCPContext7 MCP

  10. 多模态讨论: 在终端 Ctrl+V 粘贴图片,让它读图评审 UI 或读错误截图给诊断建议。


  • 优先用“计划模式/接受编辑”,让它先想清楚、再动手
  • YOLO 模式适合一次性脚手架/样例生成,不要给生产目录无差别权限。类比社区对“跳过权限确认”的讨论,便利与风险并存。
  • 在 CI 使用 iFlow Action 时,单仓库最小权限只读 Token超时与日志审计要开启。

  • 你重度使用 Anthropic:在本地主力用 Claude Code,CI 与自动文档交给 iFlow Action,两边吃。
  • 想要免费额度与谷歌生态:Gemini CLI 走 ReAct + MCP,本地探索很香;复杂多智能体/市场扩展,用 iFlow CLI。

  • 安装:bash -c "$(curl -fsSL https://cloud.iflow.cn/iflow-cli/install.sh)" / npm i -g @iflow-ai/iflow-cli
  • 首启:iflow/init
  • 市场:/mcp/agent
  • 模型与接口:编辑 ~/.iflow/settings.json(支持 OpenAI 兼容)
  • 恢复会话:iflow --resume
  • CI 集成:iflow-cli-action(输入 promptapi_keymodelsettings_json 等)

把“会干活的 AI 团队”放进终端,你的人效会直线上去。iFlow CLI 的子代理、开放市场与 CI 打通,覆盖了从个人到团队的完整链路。用一周,你就会离不开它。

你觉得 iFlow 哪个功能最戳你?还有哪些场景想试?评论区见。

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Section titled “Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]”

有人在网上爆料,部分 Claude Code Max(20x) 用户,已经能用 /model sonnet[1m] 切到 Sonnet 4 的 1M 上下文。Anthropic 官方也确认 Sonnet 4 的 1,000,000 token 长上下文已公开测试,但主要先在 API / Bedrock 放开,桌面端与 Claude Code正逐步跟进,少量用户可能已“灰测”到。


1M 上下文意味着你可以把整个中型代码库、成打的技术文档、或一摞合同一次塞进来做分析,少切块、少来回。官方口径:最大约 75,000 行代码/几十篇论文一口气吃下去,比之前翻 5 倍。目前标注为 Public Beta(API、Amazon Bedrock 已开,Vertex “即将”)。

社区侧的实测也越来越多:媒体、博客、Hacker News、Reddit 都在讨论。


现在谁能用?“Max 20x” 真的能开?

Section titled “现在谁能用?“Max 20x” 真的能开?”
  • 官方确认:Sonnet 4 的 1M 窗口 已上线 API,且是 Beta,并带有 beta header(context-1m-2025-08-07) 的要求;Amazon Bedrock 已接入;Vertex “即将支持”。
  • 订阅侧Claude Max 计划合并了 Claude App 与 Claude Code,标称 “最高 20x” 使用额度。这也是大家口中的 “Max 20x”。
  • 社区口碑:有用户反馈 Max 20x 订阅里已经能切到 1M,但也有人 报错;很可能是分批灰度或地区/账号白名单差异。别急,先试再说

小结:API 有官方实锤Claude Code/桌面端逐步放量。你可能已被“悄悄开通”,也可能还在队列里。


三步尝鲜:在 Claude Code 里切到 1M

Section titled “三步尝鲜:在 Claude Code 里切到 1M”

Step 0:更新到最新 Claude Code

Terminal window
npm i -g @anthropic-ai/claude-code

或者

Terminal window
claude update

参考官方 Quickstart/CLI 文档。

Step 1:在会话里执行

> /model sonnet[1m]
⎿ Set model to sonnet[1m] (claude-sonnet-4-20250514[1m])

这是 内置 slash 命令的合法选项之一(社区 issue 的错误日志直接列出了 sonnet[1m])。

Step 2:随便发一句话 触发一次真正请求,看看是否成功。如果报错,不怪你——可能还没轮到你的账号

Step 3:检查当前模型/状态

/status

用于查看账户与系统状态,确认是否切到 1M。

进阶:用 CLI 直接带模型

Terminal window
claude --model claude-sonnet-4-20250514

1M 模式通常需要服务端开关/白名单,或对应 beta 能力,并非写明就一定能用。


1)整库理解与重构导航README、架构图、核心模块、关键测试打包丢进来,让它出系统级地图重构计划。媒体实测称长窗下的跨文件推理更稳。

2)大部头文档合评 一次塞入多份 技术方案/合规条款/合同,让它做对比与风险点清单,再让它给出变更建议可追踪任务

3)代码库-变更影响评审 拉取最近 N 个 PR + 依赖图,让它评估回归风险、生成测试清单、补充安全/性能 check

实操小贴士:长窗 ≠ 万能。官方与开发者都提醒:上下文越大,越需要清晰的定位与指令,否则容易“吃得多、消化慢”。


  • API 价格:超过 200K 输入 token会按照长上下文费率计价;1M在 Beta 阶段对 部分组织/限额开放。
  • Claude Code 订阅:虽然不按 token 明码计费,但更大的上下文更费额度/更慢。建议配合 /compactCLAUDE.md 做摘要与指令约束。

  • “设置成功但一发消息就报错”:多见于账号未开地区灰度。确认自己是 Max(20x),多试几次或换时段。
  • “命令不识别 / 选项无效”:升级到最新版,检查 /model 的可选列表;社区日志显示 sonnet[1m] 已在可选枚举中出现。
  • API 侧调不通:记得加 beta header:context-1m-2025-08-07

想做个玩笑梗,在群里发一张截图装一秒“1T 上下文已支持”。别当真,大家图一乐就好。


一是更新并试试 /model sonnet[1m],你可能已经被开通了。 二是练好“长上下文使用习惯”:明确目标、分段聚焦、定期 /compact。等官方全面放量,你会跑得更快。

  • 你觉得 1M 对真实项目交付的提升有多大?
  • 你更倾向于 “一口吃下” 还是 “拆分—对齐—合并” 的工作流?
  • 你已经灰测到 1M 了吗?欢迎留言晒一张 /status 截图(注意隐私)。

摩根士丹利 2027年30只优质股票 投资组合解析

摩根士丹利最近公布了他们的 “2027年30只优质股票” 投资组合,这些公司被认为将在未来几年中扩大其竞争优势。本文将深入分析每一只股票的核心竞争优势,帮助投资者更好地理解这些优质企业的价值所在。


Live Nation Entertainment (LYV) - 3.41% 权重

Section titled “Live Nation Entertainment (LYV) - 3.41% 权重”

竞争优势:垂直整合的现场娱乐帝国

Live Nation凭借其垂直整合的商业模式构建了强大的护城河。公司在51个国家运营,拥有或控制394个场馆,每年服务超过7.88亿粉丝,这种全球规模是竞争对手难以复制的。更重要的是,通过Ticketmaster的票务垄断地位(2024年售出6.37亿张门票),Live Nation控制了从演出策划到票务销售的整个价值链。这种整合使公司能够获得卓越的数据收集能力、动态定价权,并与顶级艺人建立独家长期合作关系,形成了”艺人吸引粉丝,粉丝吸引赞助商”的良性循环。


竞争优势:AI驱动的广告生态系统

Meta的核心优势在于其庞大的用户基础和网络效应。截至2023年12月,Facebook日活跃用户达21.1亿,所有平台日活跃用户达31.9亿。公司97.8%的收入来自广告,其先进的AI算法能够精确定位用户并提供卓越的广告投资回报率。Meta正在利用AI工具克服苹果iOS隐私政策带来的信号丢失挑战,通过安全多方计算等技术维持广告精准度。此外,公司在元宇宙领域的大举投资为未来增长奠定了基础,尽管短期内成本较高。


竞争优势:音频内容聚合的网络效应

Spotify通过网络效应、规模经济和内容聚合建立了竞争壁垒。作为全球最大的音乐流媒体平台,拥有超过2.5亿付费用户和4亿免费用户,其”Freemium”模式能够有效获取用户并将其转化为付费订阅者。公司不断扩展到播客和有声读物领域,减少了对唱片公司的依赖,同时增强了议价能力。Spotify的个性化推荐算法和社交功能(如Wrapped年度总结)创造了用户粘性,高转换成本使用户难以切换到竞争对手平台。


消费者自由支配板块(权重9.92%)

Section titled “消费者自由支配板块(权重9.92%)”

竞争优势:云计算与电商双引擎

亚马逊的竞争优势建立在规模、技术和客户中心主义三大支柱上。公司拥有无与伦比的物流网络,2024年向Prime会员配送超过90亿件商品,其中60%以上的美国都市区域实现当日配送。AWS云服务以1080亿美元的收入保持全球领先地位,几乎是微软Azure的两倍。亚马逊的第三方市场模式聚集了200万卖家,占总销售单位的61%,这种选择的广度结合持续的低价策略(Profitero连续八年评为美国零售商最低价)形成了强大的客户忠诚度。公司在AI采用、履约自动化和新业务拓展方面的持续创新维持了其竞争领先地位。


Chipotle Mexican Grill (CMG) - 3.38% 权重

Section titled “Chipotle Mexican Grill (CMG) - 3.38% 权重”

竞争优势:品质与效率的完美结合

Chipotle的主要竞争优势在于品牌实力、运营模式和客户忠诚度。公司的”食品诚信”定位强调新鲜、高品质食材和可定制菜单选择,创造了强大的品牌认知度和忠诚度。2024年,可比餐厅销售额增长7.4%,餐厅层面运营利润率达26.7%,远超行业平均水平。Chipotle的流水线式服务模式实现了高吞吐量和定制化,支持超过320万美元的平均单店销售额,位居行业前列。数字化基础设施强劲,2024年数字销售占总收入的35%,忠诚度计划拥有超过4000万会员。


竞争优势:奢华独特性与传承价值

法拉利的竞争优势源于其品牌独特性、限量生产策略和F1赛车传承。公司每年限产约10,000辆汽车,尽管需求更高,这种人为稀缺性创造了极强的产品吸引力和溢价能力。法拉利在F1赛车中的辉煌历史和持续成功不仅提升了品牌声誉,还为其技术专长和卓越性能提供了有力证明。这种赛车运动的关联强化了Ferrari作为速度、性能和卓越象征的品牌身份。公司的高性能跑车制造能力,结合尖端技术和精密工程,为汽车爱好者创造了令人兴奋的驾驶体验。


竞争优势:全球品牌护城河

可口可乐拥有业界最强的品牌护城河。尽管面临百事可乐、RC可乐等众多竞争对手,可口可乐仍保持近30%的运营利润率和超过35%的自由现金流转换率。公司在全球软饮料市场占有45%以上的份额,137年来不断增长。可口可乐的竞争优势包括:强大的品牌实力使消费者自动选择而不考虑竞争产品、深度客户忠诚度、显著的定价权、规模经济带来的成本优势,以及卓越的分销网络覆盖全球各个角落。


竞争优势:低价策略与全渠道零售

沃尔玛的竞争优势建立在成本领先战略之上。公司利用先进的计算和网络技术实现最大运营效率,从而最小化成本。2024年股价飙升82%,市值增加约3400亿美元。沃尔玛成功吸引了更多高收入购物者,最近一个季度约75%的销售来自年收入10万美元以上的家庭。公司通过门店现代化改造(重新布局、扩大产品种类、改善照明)同时保持对7000多种商品的降价,在服务高收入和预算意识购物者之间找到了平衡点。其全渠道零售策略结合强大的供应链网络,使沃尔玛能够为93%的美国家庭提供当日配送服务。


竞争优势:天然气生产领导地位

EQT作为美国最大的天然气生产商,拥有多项关键竞争优势。公司在阿巴拉契亚盆地拥有超过100万净英亩土地,储备了超过30年的风险缓解钻井地点。尽管阿巴拉契亚地区库存大幅耗尽,EQT仍保持了2024年约26万亿立方英尺当量的已证实储量。与Equitrans Midstream的合并加强了公司的垂直整合能力,最小化对外部方的依赖并增强中游收入机会。EQT的运营效率出色,单井成本在2025年预计下降每英尺70美元,完井效率在2024年下半年较历史平均水平提高35%。公司还是首家实现范围1和范围2温室气体净零排放的传统大型能源公司。


(包含 Blackstone、Citigroup、CFG、Mastercard、Progressive、Visa 等公司,分析内容同上略)


(包含 Boston Scientific、Eli Lilly、IQVIA、Thermo Fisher 等公司,分析内容同上略)


(包含 Howmet Aerospace、Trane Technologies、TransUnion 等公司,分析内容同上略)


(包含 Analog Devices、Apple、Atlassian、Datadog、Microsoft、Shopify 等公司,分析内容同上略)


竞争优势:清洁化学品与技术服务

艺康公司的竞争优势在于其清洁化学品、技术服务、客户关系和可持续发展解决方案。公司为工业、机构和能源市场提供水处理、清洁和卫生解决方案,在食品安全和环境保护日益重要的背景下具有不可替代的价值。


竞争优势:商业地产服务全球网络

世邦魏理仕的竞争优势源于其商业地产服务、全球网络覆盖、丰富的市场数据和深厚的客户关系。作为全球最大的商业地产服务公司,CBRE在物业管理、投资销售、租赁和估值等领域拥有领先地位。


摩根士丹利的 “2027年30只优质股票” 投资组合体现了对可持续竞争优势的重视。这些公司普遍具备以下特征:

  • 强大的品牌价值和客户忠诚度
  • 网络效应和规模经济优势
  • 技术创新和数字化转型能力
  • 全球化业务布局和市场领导地位
  • 定价权和高毛利率水平

对于中国投资者而言,这份投资组合提供了学习全球优质企业竞争战略的宝贵机会。在当前经济转型和技术升级的大背景下,识别和投资具有持久竞争优势的企业将是获得长期投资回报的关键。


免责声明:本文基于公开研究资料整理,仅供参考,不构成投资建议。投资有风险,入市需谨慎。

CodeGPT 让 Claude Code 集成 VSCode, JetBrains 和 Android Studio

装上 CodeGPT 扩展,你就能在 VSCode 和 JetBrains 里直接跑 Claude Code,看得见计划随时暂停现场改任务,边干边纠偏,效率翻倍。支持 JetBrains 全家桶同理。


还在命令行里和 Claude Code“盲聊”? 现在有更顺手的玩法:把 Claude Code 带进编辑器 UI

有了 UI,你能看到规划树、随时插队、撤回修改。 遇到复杂需求,不用再“等结果揭晓”,中途就能校正方向。 这才像真的结对编程。


为什么要在 VSCode 里用 Claude Code UI?

Section titled “为什么要在 VSCode 里用 Claude Code UI?”
  • 少走弯路:计划可视化,偏了立刻拉回来。
  • 操作直觉:按钮就能暂停 / 继续 / 编辑 / 新增任务。这类 UI 集成已经在 VSCode 生态里成熟可用。
  • 不离开编辑器:和代码、Git、测试工具同屏联动。CodeGPT 本身就面向多模型、全仓理解

注:Anthropic 官方也提供 VSCode 扩展与 IDE 集成,但核心仍是从终端启动的工作流;UI 集成是对体验的加分。


  1. 打开扩展市场,安装 CodeGPT: Chat & AI Agents

  1. 登陆 CodeGPT 账户(VSCode 弹出浏览器确认)。

  2. 在 CodeGPT 里选择 Anthropic 作为提供商,并按提示连上你的密钥 / 账户授权。

  1. 进入侧边栏的 CodeGPT 面板,选择 Claude 系列模型,开启会话和计划模式

VSCode Marketplace(官方入口):CodeGPT

JetBrains(IntelliJ / PyCharm / Android Studio 等)

Section titled “JetBrains(IntelliJ / PyCharm / Android Studio 等)”
  • 在插件市场搜索并安装 CodeGPT: Chat & AI Agents,登录同上,选择 Anthropic。

在 VSCode 侧栏的会话面板里,你会看到:

  • Plan / Thinking 模式入口(先规划再执行,必要时提升思考深度)。
  • 暂停/继续按钮,随时打断长流程。
  • 任务列表可修改、可插入新子任务。
  • Checkpoints / 还原,误改也不怕。 这些交互在 VSCode 的 Claude Code UI 类扩展中已经被验证,如 “Claude Code Chat” 等展示了计划与思考模式、历史与还原等能力;CodeGPT 宣布也已支持在 VSCode 内运行和控制 Claude Code 规划流程

  • 在面板输入:“定位并修复最近异常日志的根因,先给出计划,再修改最小影响范围代码,附自测步骤。”
  • 看到计划后,删掉不必要的子任务,再运行。
  • 提示词追加:“修改前先生成 diff 预览。”(便于 Review)

计划驱动的工作流已被不少开发者验证好用。

  • 让它先产出重构计划回归点清单,再批量落地。
  • 中途插入新任务:“为修改过的模块补充最小集单测”
  • 出现跑偏,立即暂停,在任务树里改写指令再继续。
  • 指令:“生成一个可运行的 X 技术栈最小 Demo,列出步骤与目录变更,再逐步创建文件并解释。”
  • 新增任务:补上 Dockerfile / CI。
  • 最后用 Checkpoints 还原比较不同方案。

  • Plan First:先让它只产出计划,不动代码;你确认后再执行。
  • 小步提交:让它每次修改都输出 diffcommit 信息,方便回滚。
  • 文件上下文:用 @文件名 或“选中文件 → 右键发送到会话”提升命中率。
  • 模型选择:项目大、推理复杂时选 Sonnet / Opus;轻量问答选小模型。CodeGPT 支持多家模型统一调用。

能力/形态CodeGPT + VSCode UIAnthropic 官方 VSCode 扩展纯终端 CLI
计划可视化/暂停/改任务(UI 面板)有基础集成,主打从 IDE/终端启动无 UI,靠文本
多模型与知识图谱(支持多提供商、知识图谱)仅 Anthropic 模型仅 Anthropic 模型
上手难度低(市场一键装)低(扩展 + CLI)中(命令行)
JetBrains 支持(官方插件)有(IDE 集成指南)有(终端即用)
适合人群边看计划边改的团队喜欢官方原味 + 终端流键盘流、自动化爱好者

资料来源:CodeGPT VSCode/JetBrains 插件页;Anthropic IDE 集成与 VSCode 扩展页;社区 UI 扩展展示“Plan/Thinking/Checkpoint”等控件。


  • 授权方式:按扩展提示连接 Anthropic 账户(API Key 或浏览器授权流程)。
  • 隐私承诺:CodeGPT 宣称 SOC2 Type II、不拿你的代码训练模型,可开启隐私模式。
  • 计费:Claude Code 走 Anthropic 账户计费;启用前确认额度与团队配额。

  • VSCode:CodeGPT: Chat & AI Agents(市场页)。
  • JetBrains:CodeGPT: Chat & AI Agents(插件页)。
  • Anthropic 文档:Claude Code IDE 集成 / 概览

另外,CodeGPT 团队已公开宣布“在 VSCode 内可运行 Claude Code 并控制规划过程”;这是本文所述 UI 体验的直接来源。


把 Claude Code 搬进编辑器后,你不再是“等它跑完再看”。 而是像带实习生一样,随时停、随时改、随时加。 这就是人机协作最好看的样子。

你会把它用在团队的哪条流水线上?你觉得呢?

claude-code-proxy 用 Claude Code 跑 OpenAI/Gemini 模型

把 Claude Code 的请求“翻译”给 OpenAI 或 Gemini(也可直连 Anthropic),零改代码、一条命令接入、支持流式与模型前缀自动匹配。


不少同学想用 Claude Code 的工作流,但又想走 OpenAI/Gemini 的模型与价格体系。 切换 SDK、改调用格式、做权限与日志,一堆坑。

这就是 claude-code-proxy 的用武之地: 它让 Anthropic 协议的客户端(如 Claude Code),无缝转到 OpenAI/Gemini,或继续走 Anthropic,还把响应转回 Anthropic 格式,前端毫无感知。


  • 三种后端一键切换PREFERRED_PROVIDER 设为 openai / google / anthropic不想映射?选 anthropic,走直连模式

  • 模型前缀自动处理:自动给 OpenAI/Gemini 模型加 openai/gemini/ 前缀,避免手抖写错。

  • Haiku/Sonnet 智能映射haiku → SMALL_MODELsonnet → BIG_MODEL;默认映射到 gpt-4.1(-mini)gemini-2.5-pro / 2.0-flash

  • 全程 LiteLLM 撑腰:统一网关、路由/回退、用量追踪、预算限额、日志与插件扩展。

  • 完全兼容流式/非流式:对 Claude 客户端透明。


目标:本机起一个 8082 端口的代理,Claude Code 直接指向它。

1)克隆与安装依赖(用 uv 超快)

Terminal window
git clone https://github.com/1rgs/claude-code-proxy.git
cd claude-code-proxy
# 安装 uv(一次性)
curl -LsSf https://astral.sh/uv/install.sh | sh

uv 负责基于 pyproject.toml 解析/安装依赖,省心省时。

2)配置环境变量

Terminal window
cp .env.example .env
# 编辑 .env,填好你的 API KEY、首选后端与模型

关键项:

  • OPENAI_API_KEYGEMINI_API_KEY、(可选)ANTHROPIC_API_KEY
  • PREFERRED_PROVIDER=openai|google|anthropic
  • BIG_MODEL / SMALL_MODEL(用于 Sonnet/Haiku 映射) 详见 README 表述。

Gemini API Key 可在 Google AI Studio 一键创建与配置为环境变量。

3)启动服务

Terminal window
uv run uvicorn server:app --host 0.0.0.0 --port 8082 --reload

--reload 适合开发期。


安装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code

官方建议别用 sudo,权限问题请看文档。

指向代理并启动:

Terminal window
ANTHROPIC_BASE_URL=http://localhost:8082 claude

此后,Claude Code 的 Haiku/Sonnet 会按你的 .env 映射到 OpenAI/Gemini 或直连 Anthropic。


三种常用映射模板(可直接复制)

Section titled “三种常用映射模板(可直接复制)”

A. 默认走 OpenAI(省事稳妥)

Terminal window
PREFERRED_PROVIDER=openai
OPENAI_API_KEY=sk-...
# 可选:BIG_MODEL/SMALL_MODEL
BIG_MODEL=gpt-4.1
SMALL_MODEL=gpt-4.1-mini

Haiku/Sonnet → openai/SMALL_MODEL / openai/BIG_MODEL

B. 更偏爱 Gemini(成本友好/响应快)

Terminal window
PREFERRED_PROVIDER=google
GEMINI_API_KEY=...
OPENAI_API_KEY=sk-... # 作为回退
BIG_MODEL=gemini-2.5-pro-preview-03-25
SMALL_MODEL=gemini-2.0-flash

Haiku/Sonnet → 对应 gemini/ 前缀;不在白名单时回退 OpenAI。

C. 只做「Anthropic 透明代理」

Terminal window
PREFERRED_PROVIDER=anthropic
ANTHROPIC_API_KEY=sk-ant-...
# 忽略 BIG/SMALL,直传 Anthropic

好处:保留日志/中间件/统一入口,同时不做映射


  • 统一接口接 100+ 模型(OpenAI、Anthropic、Google 等)。
  • 支持 路由/回退、负载均衡、预算限额与用量追踪
  • 可定制 日志、告警、插件,方便合规与审计。

1)团队网关:把 Claude Code、脚本与后端服务的 LLM 流量,都收敛到这台代理,集中控费与审计。

2)成本/性能 AB 切:一键在 OpenAI 与 Gemini 间切换,看谁成本更优、谁推理更准。

3)直连 Anthropic + 增强治理:保留真实模型与响应,同时复用代理的日志与限额模块。

4)本地开发:开发机开 8082,Claude Code 直连,零改项目

5)多模型兜底:OpenAI 挂了自动回退,保障研发不中断(通过 LiteLLM 路由/回退)。


  • 模型名前缀:交给代理自动加前缀,避免 gpt-4o 写成 gemini/gpt-4o 这种乌龙。
  • 权限与密钥:Gemini Key 要到 Google AI Studio 申请;环境变量要在运行时可见
  • NPM 权限:安装 Claude Code 报权限错,按官方指引处理,不要强行 sudo
  • 端口冲突:8082 被占用就改 --port
  • 生产部署:建议加反向代理与鉴权(如 Nginx + Basic Auth),并启用 LiteLLM 的预算/限频/日志

  • uv run uvicorn ... 成功监听 8082。

  • npm i -g @anthropic-ai/claude-code 安装无误,claude doctor 自检通过。

  • 运行:

    Terminal window
    ANTHROPIC_BASE_URL=http://localhost:8082 claude

    发起一次简单对话,观察代理日志是否命中目标模型。


claude-code-proxy 让你把 Claude Code 的生产力,和 OpenAI/Gemini 的性价比与生态,拼在一起。 今天就把代理跑起来,一键切模型,立刻提效。

AI产品开发为何不同于传统产品开发?持续校准和持续开发 - 不确定性与“代理vs控制”的挑战

当下,生成式AI的热潮使各大公司争相推出AI驱动的产品功能,生怕错过风口。例如,字节跳动推出了对话式AI应用「豆包」,腾讯也上线了自研聊天助手「元宝」。许多产品团队在高层压力下迅速集成AI功能:想法很有前景,演示效果惊艳,早期用户反馈也不错。然而,一旦产品上线面向真实用户,问题却接踵而至。系统频繁出现意料之外的错误,用户提出各种千奇百怪的请求场景,AI的响应也时好时坏。团队苦于排查却发现问题错综复杂,难以归结到单一原因修复,整个产品思路仿佛都被动摇了。更糟糕的是,这些隐患往往会悄然侵蚀用户对产品的信任。

为何会出现从精彩Demo到不堪一击的现实落差?根源在于AI产品打破了传统软件产品的诸多假设。如果仍用构建传统软件的方式来构建AI产品,就会踩到很多陷阱。总结来看,有两大关键差异需要引起重视:

  • AI产品具有天然的不确定性 – 无论是用户的输入方式,还是AI系统的输出结果,都充满不可预测性。
  • AI产品需要在代理权和控制权之间取得平衡 – 每当你赋予AI系统更多自主行动的“代理权”,你就相应地放弃了一部分人工可控性。如果忽视这一点,贸然提高AI自主性,后果可能是失控的决策和难以追踪的错误。

很多团队没有意识到这两点差异,导致AI产品在扩展和优化过程中出现级联问题:莫名其妙的故障、决策失误,甚至演变成信任危机。针对这些独特挑战,业内资深从业者提出了一套新的产品开发框架,帮助团队在AI时代更加有的放矢地构建稳定、可靠的产品功能。下面,我们将分别解析上述两大差异,并介绍这套**“持续校准/持续开发 (CC/CD)”**框架如何应对这些问题,最后以具体案例说明如何在日常工作中循序渐进地交付AI产品。


传统软件的行为往往是确定性的。用户的交互方式有限且明确:点击按钮、填写表单、调用固定接口……开发者据此编写硬编码的逻辑映射输入和输出。如果出现错误,大多是代码bug,比较容易定位和修复。

AI产品则天生充满不确定性。AI系统引入了双重的不可预测性:

  1. 输入不确定性

    • 用户的输入不再局限于预定义的操作,而可能是开放式的自然语言、语音指令、图像等。
    • 输入表达灵活多样、难以穷举验证,也容易引发歧义。
    • 在客服机器人场景中,同一个问题用户可能有成百上千种表述方式;在内容生成中,提示词差异导致截然不同的结果;在代码助手中,模糊的需求可能生成完全不同的实现。
  2. 输出不确定性

    • 传统软件同样输入必然得到同样结果;AI模型则基于概率生成回答,本质上是“猜测”。
    • 相同请求在不同上下文、不同时间甚至不同模型版本中,结果可能各不相同。
    • 输出的不确定性使得开发测试更困难——传统单元测试方法难以适用,只能通过概率和趋势评估AI质量。

因此,AI产品开发必须接受:AI系统的行为不是绝对可控的,必须持续观察和校准它与预期的偏差。


另一个显著区别是“代理权”(Agency)的引入。代理权指AI系统代表用户自主采取行动、做出决策的能力。

  • 高代理权场景示例

    • 客服机器人直接回复用户
    • AI写作助手自动发布文章
    • 代码助手直接提交代码到仓库
  • 风险与问题

    • 自主性高 → 控制力弱
    • 一旦出错,后果比传统Bug更严重
    • 难以追踪问题环节,调试和修复困难

因此,AI的自主性需要逐步“赢得”:

  • 初期仅做辅助建议(低代理,高控制),人工审核为主
  • 表现可靠后逐渐增加自主权限
  • 保持可回滚、可介入的人工接管机制

这种循序渐进的方式既能避免AI出错带来巨大损失,也能逐步建立用户信任。


CC/CD框架借鉴了CI/CD概念,但针对AI产品的不确定性和逐步放权特性,提出了 持续开发 (Continuous Development, CD)持续校准 (Continuous Calibration, CC) 的交替循环。

  • 明确能力范围,分阶段规划版本边界
  • 搭建应用原型,埋点日志 & 人工兜底机制
  • 设计评估指标(Evals),为后续校准提供基线
  • 小范围灰度部署,开启真实反馈收集
  • 运行评估,检验真实表现
  • 分析日志,定位错误模式
  • 有针对性地改进模型、提示词、检索模块或数据
  • 反复迭代,直到AI表现稳定可靠

随着循环推进,AI能力逐步升级,代理权逐步放大,同时保持安全和信任。


实践案例:逐步构建AI客服机器人

Section titled “实践案例:逐步构建AI客服机器人”

版本1:AI辅助分配工单(低代理,高控制)

Section titled “版本1:AI辅助分配工单(低代理,高控制)”
  • 职责:仅识别类别 → 分配部门
  • 评估指标:路由准确率
  • 风险低,人工可随时纠正
  • 经过校准,准确率可达95%以上

版本2:AI建议回复(中等代理,中等控制)

Section titled “版本2:AI建议回复(中等代理,中等控制)”
  • 职责:生成答复草稿 → 人工审核发送
  • 评估指标:采用率 & 一致度
  • 改进检索模块 → 提升专业性
  • 建议采用率从50%升至80%

版本3:AI自主解决问题(高代理,低控制)

Section titled “版本3:AI自主解决问题(高代理,低控制)”
  • 职责:直接回复用户 → 限定高频、低风险场景
  • 评估指标:自动解决率 & 用户满意度
  • 初期覆盖有限问题,逐步扩大范围
  • 保留人工接管机制 & 事后抽检

通过三阶段迭代,AI客服机器人实现了从“辅助”到“自助”的平稳转变,既提升效率,又保障可靠性。


AI产品开发就像带领团队里来了一个能力超强但初来乍到的新同事:

  • 不能一上来就完全放权,而要逐步让TA熟悉业务
  • 既要给予空间,又要保持监督,确保方向不偏
  • 持续校准与逐步放权,是实现稳定可靠的唯一途径

CC/CD框架的核心:

  • 面对不确定性 → 持续观察与校准
  • 面对自主性 → 逐步放权、按需演进

这样,AI才能真正成为可靠的“团队成员”,在保障信任的同时,带来降本增效和体验升级。

Anthropic 推荐的标准化的 Prompt 提示词结构模板

一套标准化的提示词结构模板。同款结构常见于 AWS 的 Prompt Engineering 讲义与演讲,也和 Anthropic 官方的 Career coach(Joe) 示例一致。


很多人写提示词还靠感觉。 但有了结构,就有了稳定性。 今天用一张图,把“任务上下文—语气—资料—规则—例子—历史—当前请求—思考提示—输出格式—预填回复”这 10 个模块讲清楚,再给你3+个能直接抄用的工作/生活场景模板。


这张截图标题是 Prompt structure。左侧列出 10 个模块;右侧是一段示例,设定了“你是 AdAstra Careers 的 AI 职业教练 Joe,要用友好客服语气,参考文档,遵守若干规则,给出示范、读取历史、处理当前问题,并按 <response> 标签输出”。这一示例与 Anthropic Prompt Library 的 Career coach(Joe) 文案高度一致;10 模块清单与 AWS 的讲义/博客相符。

下面把图片里识别出的关键信息,做成对照表,便于直接套用👇

序号模块名称(图片识别)右侧示例要点(图片识别)作用/好处
1Task context“You will be acting as an AI career coach named Joe created by AdAstra Careers.”设定角色与任务,减少跑题。
2Tone context“You should maintain a friendly customer service tone.”约束语气与风格,输出更统一。
3Background data, documents, images“Here is the career guidance document… <guide>{{DOCUMENT}}</guide>明确参考资料,让模型有据可依。
4Detailed task description & rules规则示例:始终保持角色不确定就请对方重述遇到无关问题要礼貌回绝设定边界与错误处理,降低幻觉与跑偏。
5Examples“Here is an example of how to respond…” <example>…</example>提供few-shot 示例,对齐风格与结构。
6Conversation history<history>{{HISTORY}}</history>注入上下文历史,延续对话记忆。
7Immediate task description or request“Here is the user’s question: <question>{{QUESTION}}</question>明确当前要做什么
8Thinking step by step / take a deep breath“Think about your answer first before you respond.”鼓励条理化思考,提升可控性与质量。
9Output formatting“Put your response in <response>…</response> tags.”规范输出格式,方便抓取与自动化。
10Prefilled response (if any)“Assistant (prefill): <response>预填答复/骨架,加速多轮或批量任务。

  • 模块化:每块负责一个目标,易复用、易维护。
  • 可观察:从“资料—规则—示例—格式”,让输出更可预测。
  • 跨平台通吃:这套结构在 AWS Bedrock 教材与 Anthropic 示例都能对上,迁移成本低。

简单说:换模型不换结构,效果依旧稳。


直接可用的 4 个场景模版(可复制)

Section titled “直接可用的 4 个场景模版(可复制)”

用法提示:把 {{花括号}} 替换成你的内容;保留标签有利于后续自动化。

1) Task context: 你是{{公司}}的在线客服,目标是高效解决问题并沉淀知识库。
2) Tone context: 语气友好、克制、同理心;不夸张承诺。
3) Background: 产品手册<guide>{{链接/文档}}</guide>,常见问题<faq>{{FAQ 文档}}</faq>。
4) Rules:
- 先复述问题,再给解决步骤;涉及退款/法律,一律转人工。
- 不确定就提问澄清;禁止臆测。
5) Examples: <example>{{1-2 条标准答复示例}}</example>
6) Conversation history: <history>{{历史对话}}</history>
7) Immediate request: <question>{{用户这次的问题}}</question>
8) Thinking: 深呼吸后,按“复述→判定→步骤→兜底”的顺序思考。
9) Output formatting: 用 Markdown;包含【结论】【步骤】【可选排查】【何时转人工】四段。
10) Prefilled response: <response>【结论】:…</response>
1) Task context: 你是严谨的代码评审助手,熟悉{{技术栈}}。
2) Tone context: 专业、简洁,先风险后建议。
3) Background: <diff>{{这次 PR 的 git diff }}</diff> <tests>{{相关测试/CI 日志}}</tests>
4) Rules:
- 聚焦“正确性/安全性/性能/可维护性”;禁止主观风格之争。
- 每条问题必须给“复现片段 + 影响 + 修改建议”。
5) Examples: <example>{{1 条理想评审意见}}</example>
6) Conversation history: <history>{{讨论记录}}</history>
7) Immediate request: <question>评审本次变更</question>
8) Thinking: 列清单→逐文件→逐问题打分。
9) Output formatting: 输出表格【文件|行区间|问题|严重级别|建议】+ 总结清单。
10) Prefilled response: <response>…</response>
1) Task context: 你是私人健身与饮食教练。
2) Tone context: 鼓励式,避免内疚感。
3) Background: <data>{{上周步数/心率/体重/饮食记录}}</data> 目标:{{减脂/增肌}}。
4) Rules:
- 只用家用器械;每餐给可替换选项。
- 若数据缺失,先提 3 个关键澄清问题。
5) Examples: <example>{{一日菜单+训练示例}}</example>
6) Conversation history: <history>{{既往沟通}}</history>
7) Immediate request: <question>给出下一周的分日计划</question>
8) Thinking: 从能量缺口→微量营养→作息→训练排序。
9) Output formatting: 表格【日期|训练|时长|RPE|餐单|备注】+ 购清单。
10) Prefilled response: <response>…</response>
1) Task context: 你是家庭旅行策划师。
2) Tone context: 轻松、务实。
3) Background: 成员{{人数+年龄}},预算{{¥}}, 时间{{起止}}, 出发地{{城市}},偏好{{自然/博物馆/美食}}。
4) Rules:
- 每天不超过 2 次跨区移动;午睡留白 1 小时。
- 对儿童与老人分别给替代方案。
5) Examples: <example>{{理想的一天行程样例}}</example>
6) Conversation history: <history>{{之前讨论}}</history>
7) Immediate request: <question>生成行程并列出预估费用</question>
8) Thinking: 交通→住宿→动线→餐饮→门票→缓冲。
9) Output formatting: 行程表 + 地图链接占位 + 预算明细表。
10) Prefilled response: <response>…</response>

  • 先写 1、2、9、10(身份/语气/输出格式/预填),马上可用。
  • 3、4、5 持续打磨,效果越用越稳。
  • 所有变量都用 <tag>{{变量}}</tag>,以后可脚本化批量生成。

这套 10 模块模板,通用、可复用、可自动化。 放到工作里,是 SOP;放到生活中,是私人教练。 从今天开始,试着把你常用的 3 个任务都改成这套结构吧。

你觉得这套模板还想用在哪?评论区聊聊。

用苹果 iOS 订阅 Claude Code 的独享会员账号,享受尼日利亚区 6 折优惠价

最近,不少小伙伴问我:Claude Code 太好用了,但要么没海外信用卡订阅,要么觉得订阅太贵,有没有省力、省钱的办法?
有的!今天就来分享一份超实用保姆级攻略,手把手教你用苹果 iOS 账号跨区(尼日利亚区),再用礼品卡充值,低价拿下 Claude Code 会员。

整个流程不复杂,准备好手机和一点耐心,跟着做就行啦~


简单一句话:便宜!

不同地区的 App Store,订阅价格差别特别大。尼日利亚区的 Claude 定价相对美区和其它地区都更友好,换个区相当于直接打 6 折。再配合礼品卡充值,划算到飞起。

人民币价格(按照1 USD ≈ 7.25 RMB 折算):

方案官网价 (USD)美区 iOS (USD)尼日利亚 iOS (NGN)尼日利亚 ≈ (USD)尼日利亚 ≈ (RMB)相比美区 iOS 优惠相比官网价 优惠
Pro$20$20₦14,900$9.68¥70.2$10.32 (-51.6%)$10.32 (-51.6%)
Max (5x)$100$124.99₦100,000$64.94¥471.8$60.05 (-48.0%)$35.06 (-35.1%)
Max (20x)$200$249.99₦200,000$129.87¥942.6$120.12 (-48.0%)$70.13 (-35.1%)

👉 换算逻辑:

  • Pro:$9.68 × 7.25 ≈ ¥70.2
  • Max (5x):$64.94 × 7.25 ≈ ¥471.8
  • Max (20x):$129.87 × 7.25 ≈ ¥942.6

上手之前,先保证你有:

  • 一台 iPhone / iPad;
  • 一个备用 Apple ID(最好新注册一个,别动主号,以免影响现有订阅和应用库);
  • 尼日利亚区礼品卡(海鲜市场能买到,找靠谱卖家就行);
  • 一个海外邮箱 & 海外手机号(Claude 注册要用)。

准备完这些,就可以开始了。


操作很简单:

  1. 打开【设置】 → 点击你头像进去;
  2. 找【媒体与购买项目】 → 【查看账户】;
  3. 点【国家/地区】 → 选择【尼日利亚 Nigeria】;
  4. 地址随便填(比如 Lagos 的常见地址),支付方式选【无】;
  5. 成功后,你的账号就是尼日利亚区啦。

改好地区后,接下来就是往账号里“充钱”:

  1. 拿到你买的尼日利亚 App Store 礼品卡兑换码;
  2. 打开 App Store → 点击头像 → 【兑换礼品卡或代码】;
  3. 输入兑换码 → 确认 → 看到余额到账。

这就相当于给自己准备了一张尼日利亚区的“购物卡”。


  1. 去 Claude 官网或 App 里注册;
  2. 用海外邮箱;
  3. 收不到验证码?需要海外手机号,去找常见虚拟号平台接个短信就行;
  4. 注册完成,就能登录啦。

  1. 在尼日利亚区 App Store 搜索“Claude”,下载;
  2. 登录你刚刚注册好的账号;
  3. 打开会员中心,选择订阅套餐;
  4. 付款时用刚刚礼品卡充值的余额,直接支付!

搞定 🎉!现在你就用上了优惠价的 Claude 会员。


  • 一定用小号操作:不要轻易动主 Apple ID,不然可能影响你正在用的订阅和应用;
  • 礼品卡要认准靠谱卖家:避免买到黑卡或兑换失败的;
  • 跨区永远有风险:苹果可能调整规则和汇率,要随时关注;
  • Claude 不同地区可能下载受限,如果遇到下不了的情况,可以准备个梯子。

其实整个流程看似啰嗦,但真做起来很快:10 分钟搞定+稳定省钱
订阅 Claude 后,你就能随时让这个强大的 AI 帮你生成代码、写文案、总结内容、灵感辅助,效率杠杠的。

所以别犹豫啦,撸起袖子试试,说不定一个月就能省下一顿大餐的钱~

iOS 苹果订阅 Claude Code 会员服务

目的:用 iPhone/iPad 在 App Store 成功订阅 Claude(Pro/Max),支持后续续费和升级。 对象:需要在Claude 支持的地区使用、希望走苹果内购的同学。


  • 省心:用苹果账单统一管理,随时改套餐、随时取消。
  • 安全:礼品卡/Apple Account 余额支付,不暴露真实卡号。
  • 同步:iOS 原生 App,和网页版数据打通。

1)注册 Claude 账号(海外邮箱 + 支持地区手机号)

Section titled “1)注册 Claude 账号(海外邮箱 + 支持地区手机号)”
  • 打开 claude.ai,用邮箱注册并登录。随后会要求手机验证
  • 必须使用Claude 支持地区的手机号码;官方明确要求“支持地区手机号才可登录”。(不要用临时号,风控高)

小贴士:邮箱用 Gmail/Outlook 都可;若手机号之前绑定过别的账号,需要联系客服解绑旧号再换绑。


2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)

Section titled “2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)”
  • 进入 设置 → 你的名字 → 媒体与购买项目 → 查看账户 → 国家/地区,按流程更换。

  • 改区前必须满足:

    • 余额清零
    • 取消影响改区的订阅并等到周期结束;
    • 准备新地区可用的支付方式(可用 Apple 账户余额/礼品卡)。
  • 你在家庭共享里,可能无法改区,需要先退出家庭组。

查询新地区支持的付款方式:见苹果官方列表(多数地区可用Apple Account 余额/礼品卡)。


3)购买该地区的 App Store / Apple Gift Card(常见是美区)

Section titled “3)购买该地区的 App Store / Apple Gift Card(常见是美区)”
  • 礼品卡是严格分区的:只能在购卡所属国家/地区使用,跨区无法兑换。
  • 不要买错卡种Apple Store(线下零售)礼品卡无法在 App Store 里兑;要买Apple Gift Card / App Store & iTunes类型。
  • 务必确认面值/地区/卡种与 Apple ID 完全一致,优先选择正规授权渠道

  • 打开 App Store → 头像 → 兑换礼品卡或代码 → 输入/扫码卡背16 位代码,完成后会显示Apple Account 余额

余额规则补充:部分订阅/场景对余额有例外,以当地规则为准(大多数 App 内购可直接走余额)。


5)下载 Claude App 并在 App 内订阅

Section titled “5)下载 Claude App 并在 App 内订阅”
  • 在 App Store 搜索 “Claude by Anthropic”,下载安装。

  • 打开 App,用你的 Claude 账号登录,在订阅入口选择计划并走苹果内购

  • 美区价格(以商店显示为准)

    • Claude Pro 月付 $20
    • Claude Pro 年付 $214.99
    • Claude Max 5x 月付 $124.99
    • Claude Max 20x 月付 $249.99 (不同国家税费/定价会有差异)

步骤关键要点常见坑位
注册 Claude支持地区 + 手机号验证临时号/非支持地区手机号被拒;多次绑定需解绑旧号
Apple ID 改区余额清零、订阅取消、准备新地区付款方式家庭共享阻塞;余额不足一单价时无法清零
买礼品卡严格同区,同卡种买到 Apple Store 卡无法在 App Store 用;买错地区无法兑换
兑换App Store → 头像 → 兑换礼品卡或代码16 位码被输错/磨损;代码提示“需在其他商店兑换”
订阅App 内走 IAP,优先用余额少数地区余额对部分订阅有限制,以当地规则为准

(官方依据:支持地区/手机号要求;改区前置条件;礼品卡分区与不可跨区;兑换步骤;付款方式与价格。)


  • 遵守条款:Claude 仅面向官方支持的国家/地区用户使用;注册/登录需符合所在地与手机号要求。
  • 礼品卡跨区无效:买错地区/卡种无法兑换,苹果不支持跨区转移余额。
  • 改区前置:有余额、有订阅、在家庭共享中,都可能无法改区。按官方流程处理。

Q:余额没花完,改区卡住怎么办? A:用余额购买可用的数字内容到精确清零;若余额不足一单价,联系 Apple 支持处理。

Q:用余额能不能付 Claude? A:多数地区 App 内购支持Apple Account 余额;但个别地区/订阅有例外,以当地条款为准。

Q:App 在我选的商店能下吗? A:Claude iOS App 可在支持地区的 App Store 下载,名称 Claude by Anthropic


结语|把 Claude 变成你的“随身工作台”

Section titled “结语|把 Claude 变成你的“随身工作台””

到这一步,你已经打通:支持地区账户 → Apple 改区 → 礼品卡充值 → App 内订阅。 接下来,把 Claude 当成你手机里的“副驾驶”,写作、翻译、笔记、拍照识图都能一把梭。

你觉得呢?

  • 你会把 Apple ID 设在哪个区?为什么?
  • 用过 Pro/Max 的朋友,真实感受如何?

Claude Code /context 命令可视化上下文窗口、Token 占用、MCP 调用和记忆文件

一句话/context 会把当前会话的上下文窗口、Token 占用、MCP 调用痕迹、以及被加载的 CLAUDE.md 记忆文件都可视化,方便你做“减肥、控糖、查泄漏”。(该功能在 Claude Code v1.0.86 里出现,来自社区实测反馈。)

你是不是也遇到过:聊着聊着,突然被自动压缩打断,关键信息被“折叠”得七零八落?

/context 就像一块“体脂秤”,把上下文里都塞了什么、哪里超标、为什么触发压缩,统统摊开给你看。它还会标出 MCP 工具的使用和 CLAUDE.md 记忆文件的来源,方便你做针对性优化。


  • 一眼看穿上下文:会话里到底装了哪些片段、各占多少 Token,接近阈值没有?(社区总结:常见 200k 窗口、约 80% 附近会触发自动压缩)
  • 定位“胖源”:标出 MCP 工具用过哪些资源、读了哪些大文件,便于减重。
  • 核查记忆:展示被加载的 CLAUDE.md / CLAUDE.local.md,确认有没有“记忆塞太多”。
  • 成本意识:结合 /context 与状态栏/第三方工具(如 ccusage)做交叉对比,减少“暗耗”。(官方文档给过一个量级:人均日均成本约 $6,90% 用户低于 $12)

注:目前 /context 的统计和其它渠道(自动压缩提示、ccusage、定制状态栏)可能略有出入,社区也在反馈修正。把它当“诊断视图”更稳。


在一次大需求推进的中后期,敲 /context 看看哪些段落最占 Token。 配合 /compact focus: {本周目标与差异清单}定向瘦身,避免把历史枝叶继续带进来。(Slash 命令与 /compact 属于官方支持的工作流)

/context → 出现了家目录或项目里过大的 CLAUDE.md? 把规范、惯例留在项目层 CLAUDE.md,把临时心得放 CLAUDE.local.md,并拆分引用,避免一锅端进上下文。

/context 里看到 MCP 调了哪些搜索/数据库/外部 API,倒推出最费 Token 的调用链,然后做白名单限流。MCP 是 Claude 官方的一等集成,适合规模化连接外部工具。

合并分支、发版前跑一次 /context,确认没有无关对话历史多余记忆干扰,降低自动压缩触发几率,提升回复稳定性。关于“接近 80% 会自动压缩”的经验可做参考。

ccusage 挂到状态栏,实时看“当前会话/今日/5 小时块”的消耗;遇到飙升,立刻 /context 对表定位。


能力/工具/context自动压缩提示ccusage(状态栏)自定义状态栏脚本
展示粒度细,含片段/MCP/记忆粗,接近阈值才提示细,侧重费用/Token实时数取决于脚本
记忆可见性✔ 显示 CLAUDE.md 来源需自做
MCP 可见性可做
准确性早期版本略有偏差准确准确(基于日志/计费)依实现
适合人群诊断/优化普通使用成本敏感高阶定制

说明:准确性条目参考了官方/社区资料与问题跟踪帖,/context 仍在迭代。


  • 查看上下文输入:/context → 标记大块内容与来源(MCP/记忆/历史)。

  • 定向瘦身输入:/compact focus: 「本迭代目标与阻碍」(先聚焦再压缩)。

  • 记忆治理: 把规约写进项目根的 CLAUDE.md;临时偏好放 CLAUDE.local.md;大文档用引用拆分。

  • MCP 白名单: 限定可自动放行的工具,避免无谓调用;必要时再交互授权。

  • 成本联动: 安装 ccusage 并挂到状态栏,随时对比 /context


  • 数字不完全对齐很正常:/context 处于新版本早期,和状态栏或自动压缩提示可能存在偏差;以计费/日志为最终依据。
  • 别把记忆当垃圾桶:记忆文件会被自动读取,体量大就会占窗——控制粒度才是王道。
  • MCP 不是免费午餐:每一次外部检索/读取都可能带来额外 Token;用白名单与限流。

/context = 开发者的“上下文体检表”。 想把 Claude Code 用得稳、快、省,先把“看得见”这件事做好。 从今天起,养成三个习惯:常看 /context、按需 /compact、记忆瘦身。你会发现,回复更稳、成本更可控、协作更顺。

你觉得 /context 还缺什么视图?有没有你做的“状态栏 + /context”联动方案?欢迎留言聊聊。

Claude Code 无缝切换 DeepSeek v3.1

DeepSeek v3.1 新增 Anthropic API 格式兼容。把 Claude Code 的 BASE_URL 和鉴权变量指到 DeepSeek,就能继续用 Claude Code 的工作流与工具,底层模型却换成 DeepSeek,体验类似、成本更友好。


很多同学问:能不能保留 Claude Code 的一整套体验,比如 REPL、/config、权限沙盒、hooks、状态栏……但把底层模型换成便宜高性价比的? 现在答案是:能。因为 DeepSeek v3.1 宣布支持 Anthropic API 兼容,对接路径官方给到位了。


  • 无缝衔接 Claude Code:继续用熟悉的 CLI、项目权限、MCP/工具链;只改环境变量与模型名。
  • 价格更友好:DeepSeek Chat(v3.1)官方价显示输入 $0.27/百万 token(cache miss)输出 $1.10/百万 token。对比 Claude Sonnet 3.7/4 的 $3 / $15,输入大约 1/11,输出约 1/13.6真金白银
  • 128K 上下文(v3.1),同时还支持**严格函数调用(Beta)**等特性。做代码代理、工具编排更稳。

小提醒:Anthropic 近期也在推 Sonnet 4 的 1M 上下文(长上下文按更高档计费),这点是 DeepSeek 目前不具备的上限优势,按业务取舍。


Terminal window
npm install -g @anthropic-ai/claude-code

(装完可 claude doctor 自检版本与依赖)

Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_API_KEY}
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat

说明:

  • ANTHROPIC_BASE_URL 指到 DeepSeek 的 Anthropic 兼容端点
  • ANTHROPIC_AUTH_TOKEN 会作为 Authorization: Bearer 使用;
  • ANTHROPIC_MODELANTHROPIC_SMALL_FAST_MODEL 让 Claude Code 选中 DeepSeek 的模型。
Terminal window
cd my-project
claude

(你看到的还是 Claude Code 的交互式工作流,但请求会发往 DeepSeek)

想持久化配置?把上述变量写进 ~/.claude/settings.jsonenv 字段即可:项目/全局都支持,团队可统一发放。


A. 用 settings.json 固化模型与限额

Section titled “A. 用 settings.json 固化模型与限额”
{
"model": "deepseek-chat",
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "sk-***",
"ANTHROPIC_MODEL": "deepseek-chat",
"ANTHROPIC_SMALL_FAST_MODEL": "deepseek-chat",
"CLAUDE_CODE_MAX_OUTPUT_TOKENS": "4096"
}
}

这样开新项目不用反复 export,团队一把梭

你也可以把 ANTHROPIC_BASE_URL 指向企业自建 LLM Gateway / LiteLLM,做流量路由、熔断、成本看板、配额管理。 官方文档明确支持 ANTHROPIC_BASE_URLapiKeyHelper 等方案。

  • 统一小任务模型:把 ANTHROPIC_SMALL_FAST_MODEL 也设成 DeepSeek(默认用于扫描/检索/轻推理)。
  • 控制输出上限CLAUDE_CODE_MAX_OUTPUT_TOKENS 合理收口,避免长文输出吃满。
  • 函数调用:v3.1 支持严格函数调用(Beta),让 agent 走结构化调用链,少走弯路省 token

DeepSeek 的 Anthropic 兼容层覆盖了消息、工具、流式、温度、top_p 等常用字段; 但也明确标注了不支持的内容类型(如 imagedocumentsearch_result、部分 MCP/容器类字段)。 需要这些能力的场景要么切回原 Claude,要么改造提示与流程。

另外:敏感文件隔离别忘了。用 Claude Code 的 permissions.deny.envsecrets/** 等隐藏,避免模型读取。


项目DeepSeek Chat(v3.1 定价)Claude Sonnet 3.7/4(API 定价)
输入(每百万 token)$0.27(cache miss)$3
输出(每百万 token)$1.10$15

结论:输入约 1/11,输出约 1/13.6。如果你主要跑代码改写、检索、单测生成,这个差距会立竿见影


  • 个人/中小团队:预算敏感,但要求工程效率工具链稳定
  • Agent / 自动化项目:调用频繁、响应可控,优先省成本
  • 教育/实验环境:希望在同一套 Claude Code 体验下,快速验证不同模型策略。

Q:我在 REPL 里还会看到“Claude”的字样,这是 DeepSeek 在跑吗? A:是的。壳是 Claude Code引擎是 DeepSeek。请求会按你设置的 ANTHROPIC_BASE_URL 与鉴权走 DeepSeek。

Q:我需要换 SDK 吗? A:不用。如果你用的是 Claude Code 交互式工作流,只改环境变量即可。若在代码里直接调 SDK,可以用 Anthropic 官方 SDK,同时把 BASE_URL 指向 DeepSeek 的 Anthropic 端点即可。

Q:DeepSeek 兼容层有没有不一样的地方? A:有。DeepSeek 列出了忽略/不支持的一些头与消息类型,工具大多支持,但图像/文档类消息暂不支持,注意规避。


一句老话:“能省下来的钱,都是团队的护城河。” 把 Claude Code 的生产力留住,把大头模型成本换成更友好的 DeepSeek。 今天就切一把,明天财务报表会笑。

你觉得呢?要不要我顺手给你做一份 settings.json 模板 + 成本测算表


Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=sk-deepseek-***
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
claude

(来自 DeepSeek 官方指引与 Claude Code 环境变量文档)

Terminal window
pip install anthropic
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_API_KEY=sk-deepseek-***
import anthropic
client = anthropic.Anthropic()
msg = client.messages.create(
model="deepseek-chat",
max_tokens=800,
messages=[{"role":"user","content":"Hi, from DeepSeek via Anthropic SDK!"}]
)
print(msg.content)

OpenAI $500B 估值与 Palantir 股价泡沫分析报告

基于对Citron Research关于Palantir Technologies的研究报告进行深入分析,本报告通过多渠道事实核查、逻辑分析和批判性思维,揭示了AI股票估值泡沫的深层次问题以及Palantir未来走势的关键风险因素。

Citron Research的报告提出了一个简单而尖锐的估值比较:OpenAI以$500亿估值对应2026年预计$296亿收入,P/S倍数为17倍;而Palantir预计2026年收入$56亿,按同样17倍倍数计算,合理股价应为$40,远低于当时约$170的市价。

  1. OpenAI员工计划出售$60亿股票,公司估值$5000亿
  2. Sam Altman承认AI市场存在泡沫
  3. Alex Karp在过去两年出售近$20亿Palantir股票
  4. Palantir依赖政府合同的”不平滑”收入模式
  5. Forward Deployed Engineers模式成本高昂,边际利润为负

通过多个权威媒体证实,OpenAI确实在进行$60亿的员工股票出售,估值$5000亿。Sam Altman在2025年8月的媒体见面会上明确表示”投资者整体上对AI过度兴奋”,并将当前情况比作dot-com泡沫。

  • 2026年收入预测$56亿:Bloomberg共识预测确实在此范围
  • 当前估值倍数:以$170股价计算,P/S确实达到60-70倍
  • 政府收入占比:确实约占55%,美国政府收入2025年Q2增长53%

实际情况比报告描述更严重。Alex Karp在2024年出售了$18.8亿股票,其中$14亿集中在总统选举前后。Peter Thiel等其他内部人员2024年总计出售超过$40亿股票。

Forward Deployed Engineers成本模式 ✓ 准确

Section titled “Forward Deployed Engineers成本模式 ✓ 准确”

一位前Palantir工程师确认,FDE模式需要雇佣顶级工程师,成本极高,“许多情况下边际利润为负无穷大,因为我们免费赠送项目”。

问题:直接用OpenAI的17倍P/S倍数衡量Palantir忽视了商业模式根本差异。

分析:OpenAI是消费者导向的SaaS订阅模式,具备网络效应和自我强化特征;Palantir主要依赖政府长期合同和高度定制化企业服务。两者的风险特征、可预测性和扩展性完全不同。

问题:报告强调Palantir收入增长”稳定”,但忽略了其在美国商业市场的爆发式增长。

事实:Palantir 2025年Q2美国商业收入同比增长93%,远超”稳定”描述。总收入增长48%,Rule of 40得分94%,显示强劲的增长和盈利能力平衡。

问题:报告将Databricks描述为”最大威胁”,但实际上两者更多是合作而非直接竞争。

事实:2025年4月Databricks与Palantir宣布合作伙伴关系,结合双方优势为企业提供AI解决方案。多位从业者证实两者针对不同用例,可以在同一组织内共存。

批判性思维:立场、利益与动机分析

Section titled “批判性思维:立场、利益与动机分析”

Andrew Left因GameStop事件后宣布不再发布做空报告,但此次重新针对Palantir发声。值得注意的是,Left目前面临19项证券欺诈刑事指控,被指控利用公共平台操纵股价获利。

历史准确性:据WSJ统计,Citron在2001-2014年发布的111份报告中,90份在一年后股价下跌,平均跌幅42%,准确率约81%。

Alex Karp的抛售行为:虽然大量抛售股票看似缺乏信心,但需要考虑以下因素:

  1. 流动性需求:作为长期私人持股,IPO后需要分散化投资组合
  2. 税务规划:10b5-1计划是合法的税务优化策略
  3. 信号混杂:同期Karp也在行使期权增持股票,并非单纯减持

机构投资者行为:ARK Invest等知名机构持续增持PLTR,Brett Winton将其视为”AI革命的关键基础设施”,显示机构层面仍有信心。

Palantir过去、现在、未来走势分析

Section titled “Palantir过去、现在、未来走势分析”
  • 2020年:直接上市$23.55,市场初期兴奋
  • 2021-2022年:科技股熊市,跌至历史低点$6.00
  • 2023年:AI概念兴起,股价开始回升至$17.17
  • 2024年:AI热潮+特朗普胜选,暴涨340%至$75.63
  • 2025年:峰值达$190,目前回调至$157

优势

  1. 盈利能力强:连续8个季度GAAP盈利,46%调整营业利润率
  2. 政府合同稳定:$100亿美军合同提供长期收入保障
  3. 商业市场突破:美国商业收入增长93%,客户数增长43%

风险

  1. 估值极高:P/E超过490倍,远超同行
  2. 客户集中:前三大客户占收入17%
  3. 国际市场疲软:国际商业收入下跌3%

乐观情景

  • 分析师预测2025-2027年收入CAGR 25.3%,净利润CAGR 31.6%
  • AI平台(AIP)推动企业数字化转型需求
  • DOGE政府效率部门可能增加需求

风险情景

  • 政府削减开支影响核心业务
  • AI民主化降低定制化服务价值
  • 高成本结构难以规模化

当前PLTR市值$373B,而收入仅$28.7B(TTM),P/S比率约13倍,确实高于多数SaaS公司。但考虑到:

  1. 增长质量:48%收入增长+94% Rule of 40,显示健康的增长盈利平衡
  2. 防御性:政府客户粘性强,转换成本高
  3. AI先发优势:在企业AI部署领域建立了技术护城河

基于DCF和可比公司分析:

  • 保守估值:$80-120(考虑增长放缓和估值回归)
  • 合理估值:$120-180(维持当前增长轨迹)
  • 乐观估值:$180-250(商业市场大规模突破)

当前$157的价格处于合理区间下沿,但仍存在向下调整空间。

  1. Citron报告有一定合理性:Palantir确实存在估值过高问题,$40目标价虽然极端,但反映了基本面与股价的脱节
  2. 商业模式转型关键期:从政府依赖向商业市场转型的成功程度将决定长期价值
  3. AI泡沫风险真实存在:Sam Altman的泡沫警告不容忽视,整个AI板块面临估值压力

短期(6-12个月):谨慎持有,关注Q3/Q4财报中商业收入增长可持续性 中期(1-3年):重点观察企业客户续约率、国际市场拓展和成本控制效果 长期(3-5年):如能成功转型为平台型企业并实现规模经济,仍有显著增长空间

风险控制:建议投资者不超过投资组合5%配置该股,并设置止损线$120以控制下行风险。

Palantir代表了AI时代企业软件的新范式,但当前估值可能已透支了未来3-5年的增长预期。理性投资者应在认可长期价值的同时,对短期波动做好充分准备。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

AI 让你更快入门,却无法替你登顶

在人工智能(AI)时代,我们常听到一种说法:AI 更擅长“垫高下限”,而不太能“抬升上限”
简单来说,AI 正在大幅降低各领域的入门门槛,让更多人更容易上手新技能或完成基本工作;
但要突破人类能力的天花板,达到创意和专业的巅峰水平,AI 却显得心有余而力不足。

这种“下限提高、上限未变”的现象在不同领域表现各异。
本文将深入分析 AI 如何降低学习和工作的门槛,以及为何突破上限依然困难,并结合编程、写作、创意、设计等领域的实例进行对比分析。


AI 降低门槛:学习曲线被重新塑造

Section titled “AI 降低门槛:学习曲线被重新塑造”

学习资源匹配难题正在消解。 在 AI 出现之前,学习者常常面临“资源匹配”的难题:市面上的教学资料是为“大众”或某个固定水平的受众编写的,未必适合你的具体情况。比如:

  • 你是某新领域的新人,却在相关领域有一定知识积累;但几乎没有教程能把两者联系起来。
  • 学习某技能其实需要先修知识,但初学者往往不清楚这一点,结果直接硬啃,效率低下。
  • 达到中级水平后,常常会遇到瓶颈,却很难找到针对性的进阶资源。

如今,有了 AI,这些问题迎刃而解。AI 可以因材施教,按需定制内容:无论你提出多“小白”或多冷门的问题,AI 都能根据你的理解水平给予解答,甚至帮你完成一些枯燥的基础练习。
这使得学习曲线发生显著变化——起步阶段不再陡峭,而是被大大抬升了。

绿色曲线表示在 AI 辅助下技能掌握的进度,相比黑色曲线(无 AI),初学者能更快跨过基础门槛。随着技能深入,两条曲线趋近,说明 AI 对精通的帮助有限。

AI 的典型作用:

  • 像私人导师一样,随时解答问题;
  • 提供示例代码、案例,帮助快速突破新手期;
  • 在重复性工作上代劳,让学习者专注于理解。

例如,很多程序员发现:过去学习新框架时,要花大量时间查文档;现在直接问 AI,就能即时获得解释和代码示例。正如有人调侃:“AI 几乎知道每一个菜鸟错误的解决办法,就像打了类固醇的 Stack Overflow。”

研究也表明:新手程序员借助 GitHub Copilot,完成任务的速度提高了 55%,而且越缺经验的人,从 AI 获得的提升越大

不仅是学习,工作中的门槛也显著降低。过去需要专业技能的任务,如代码编写、文案撰写、制图建模,如今新人也能靠 AI 工具快速产出“能用”的成果。
这意味着更多人可以进入过去的专业领域,知识工作参与面正在扩大。调研称之为“raising the floor”——提高地板,提供更高的起点默认值。


突破上限依然困难:认知边界与数据瓶颈

Section titled “突破上限依然困难:认知边界与数据瓶颈”

高手对 AI 的评价往往更冷静。
他们直言:AI 的知识浅薄,研究得越深,越发现它帮不上忙。

原因主要有两方面:

  1. 训练数据局限

    • 常见、普及的主题 → AI 答案可靠。
    • 前沿或高深主题 → 数据稀缺,AI 容易出错或模棱两可。
    • 有争议的主题 → 数据矛盾,AI 输出缺乏深度。
    • 本质上,AI 更倾向于给出“平均化的回答”,而非突破性洞见。
  2. 认知与推理瓶颈

    • 生成式 AI 本质是模式匹配器,而不是推理机器。
    • 缺乏因果逻辑和跨领域洞察力。
    • 在复杂推理题和创新探索中,AI 经常力不从心。

“捷径”思维导致停滞。
很多人只想直接问 AI 要答案,而不愿意自己思考。短期内似乎进步飞快,但很快进入平台期,最终被坚持自主学习的人超越。

红线:依赖 AI 捷径的学习者,早早停滞;黑线:自主学习者,后劲更足。

归根结底,精通仍然困难。AI 虽然降低了“入门难度”,却没能降低“登顶难度”。真正的理解、创新、经验积累,依然需要靠自己完成。


编程:新手如虎添翼,复杂项目仍靠老鸟

Section titled “编程:新手如虎添翼,复杂项目仍靠老鸟”
  • 优势: 帮助新手快速掌握语言和框架,提升生产力。
  • 局限: 在大型项目中,AI 缺乏上下文理解,难以输出高质量方案。
  • 隐忧: 新人可能跳过基础训练,削弱独立解决问题的能力。

写作:生成初稿轻而易举,优质创作不容懈怠

Section titled “写作:生成初稿轻而易举,优质创作不容懈怠”
  • 优势: 文案、摘要、新闻稿的生成效率极高。
  • 局限: 风格趋同,缺乏原创突破。
  • 结论: AI 是二稿助手,但独特表达仍靠作者。

创意艺术:模仿触手可及,新意难以企及

Section titled “创意艺术:模仿触手可及,新意难以企及”
  • 优势: 人人都能生成像样的插画、音乐。
  • 局限: 真正的新颖创意依然稀缺。
  • 现象: “吉卜力风”头像火过一阵,但无法替代经典原创作品。

设计:工具智能进步,创意仍需巧思

Section titled “设计:工具智能进步,创意仍需巧思”
  • 优势: Photoshop、Figma 等 AI 功能降低了操作门槛。
  • 局限: 品牌调性、用户体验的把控,仍需人来决策。
  • 趋势: 设计师角色转向“AI 筛选师”和“创意总监”。

结语:机遇与挑战并存,因人而异的 AI 时代

Section titled “结语:机遇与挑战并存,因人而异的 AI 时代”

AI 正在垫高下限,让更多人进入知识和创意的舞台。
突破上限仍靠人类,AI 提供的是更高的起点,而非更高的终点。

  • 对学习者: AI 是加速器,但不能替代努力。
  • 对创作者: AI 是助手,但原创性依旧稀缺。
  • 对行业: AI 打破准入门槛,但巅峰依旧属于少数。

在一个人人都有 AI 工具的时代,真正拉开差距的,是使用工具的智慧


ChatGPT, Claude 和 Gemini 成功的秘密:AI研究者发现了一张“彩票”

从小模型到大模型:机器学习铁律被打破

Section titled “从小模型到大模型:机器学习铁律被打破”

五年前,如果你对机器学习专家说“我们应该训练一个拥有万亿参数的神经网络”,对方大概率会觉得你疯了 。

长期以来,业界奉行一条“铁律”:模型太小,会欠拟合;模型太大,就只能死记硬背训练集,无法举一反三。

这其实源于统计学的经典原理——偏差-方差权衡。简单来说,模型太简单会漏掉关键模式,模型太复杂又会记住噪音,导致泛化失败 。


打个比方:假设我们教一个小学生做加法。 有两种策略:一种是理解进位的算则,另一种是把所有可能的加法题和答案硬背下来。

后者虽然作业成绩满分,但一换题型就惨了——因为他没真正学会规律,只是记住了答案。 这就像过大的神经网络过拟合:在训练集上成绩完美,一遇到新样本就不灵了。


正因如此,过去的AI研究非常克制,大家想尽办法“瘦身”模型,用正则化、防止过拟合。 大模型在当时被视为自取灭亡,甚至有“大模型都会过拟合”的箴言挂在嘴边 。

然而,现实给了我们一个大惊喜。 如今那些曾被称作“不可能”的超大模型却大放异彩——从ChatGPT这样的对话AI,到蛋白质结构预测,无不受益于模型规模的爆炸式增长 。


一切转折出现在2019年。

当年,一群“离经叛道”的研究者做了个大胆实验:他们不顾警告,一直增大模型规模,甚至在模型对训练集已经100%准确(按传统说法此刻应当严重过拟合)之后,继续加大容量 。

结果出人意料:模型的测试性能不降反升!

训练误差先下降然后上升(过拟合),但当参数进一步增多时,测试误差竟再次大幅下降 。

这一现象被称为 “双重下降”(double descent)——彻底颠覆了300年来统计学的常识 。


随着更多实验验证“双重下降”普遍存在于CNN、ResNet、Transformer等模型 ,**“大即是好”**的信念开始占据主导。

学界和工业界迅速转向拼模型大小。可是,每个研究者心中依然有个疑问:

按理说模型越大越该过拟合,为什么现实中大模型反而变聪明了?


图:大型神经网络中包含许多随机初始化的子网络。训练过程中,那些性能优异的“中奖彩票”子网会被选中,其余逐渐被抑制 。

2018年,MIT的研究者提出了“彩票假说”。

他们发现:在一个大型神经网络中,藏着一些微型的子网络,哪怕剪掉96%的参数,这些子网络依然可以匹配原模型的性能!


更神奇的是,这些子网络只有在保留原始随机初始化的前提下才能如此出色。 如果把它们重新初始化,性能就会崩掉 。

于是,“彩票假说”诞生了:

大型神经网络之所以成功,不是因为学到了复杂解,而是因为模型够大,里面随机生成了足够多的子网络,总有一个子网络碰巧非常契合任务需求 。

训练的过程就像是在抽奖:中奖的子网络被不断强化,其他的逐渐消失 。


这个发现妙极了,它解释了“双重下降”的原理,也让经典理论和新现象和解了:

大模型并没有“背答案”,而是在参数空间中找到了更简洁的解释

奥卡姆剃刀依然有效,只是实现方式更精巧。


这一原理可能也在生物智能中体现。

人脑有860亿个神经元、百万亿级的突触连接,看上去严重“过参数化”。 可我们人类却能举一反三。

按照彩票假说,或许大脑正是通过“冗余的神经元连接”,为任何任务提供了海量备选方案,从中挑选出有效的简单模式 。

智能的本质不是死记硬背,而是从大量可能性中发现规律


这也解释了为什么GPT这样的大语言模型能如此成功。

买票多,中奖概率大。 GPT这种模型里,海量随机初始化的子网络保证了训练过程中一定能找到擅长语言模式的“天才子网”。

随着规模增大,这些“中奖子网”涌现,才让GPT逐步获得了小样本学习、推理等新能力 。


AI研究者无意间刮出了一张改变格局的“大奖彩票”。

这个故事告诉我们:勇于挑战既有理论,往往能收获意想不到的优雅真理。

过去坚信的偏差-方差铁律并没有被推翻,而是在巨大的参数空间中以更微妙的方式发挥作用 。

大型神经网络并非违规成功,它们只是在更高层面遵循了规则


这也提醒我们:实践出真知。

敢于把模型规模推到理论舒适区之外的研究者,让AI取得了里程碑式的进展。 在一个以数学定理为基础的领域,有时最重大的突破恰恰来自拥抱不确定性 。


ChatGPT的成功背后,并没有什么神秘魔法。

给模型足够大的“舞台”,它自然会淘汰冗余、找到最优雅的表演方式。

这个发现听起来朴素,却颠覆了我们对“学习”的传统认知。

或许,我们也能把这种精神运用到生活中:当大多数人循规蹈矩时,敢于跳出舒适区,可能就能撞见下一个“优雅惊喜”。


💡 你被这个假说震惊到了吗? 快把这篇文章转发给你的AI朋友,一起聊聊!

ccstatusline 把 Claude Code 变成“生产力仪表盘”

ccstatusline 把 Claude Code 底部状态栏变成「可视化驾驶舱」——模型信息、Git 分支、Token、上下文占用、会话时长、5 小时 Block 进度条,都能一次看全,还能插入你自己的命令输出。


每天写代码,最怕两件事。 成本失控,以及上下文爆表。 Claude Code 现在支持自定义状态栏,我们有了一个天然的“仪表盘”位置。

ccstatusline 就是为这块“仪表盘”而生的。 开箱即用,能直接显示模型、Token、上下文百分比,还自带 Powerline 主题。最爽的是自带 Block 计时器,把 5 小时窗口的进度一眼看穿。


1) 一眼看穿 5 小时 Block(含进度条)

Section titled “1) 一眼看穿 5 小时 Block(含进度条)”
  • 自动识别对话块边界,显示已用时长。
  • 两种进度条样式(32/16 字符)。
  • 支持只显示“纯值”(raw)模式。

节奏感直接拉满,什么时候该休息、什么时候重置,心里有数。

  • 箭头分隔、可定制 Cap、内置多套主题。
  • 16/256/TrueColor 都能玩。

颜值在线,信息密度高,还能和你的终端主题完美融合

  • npx/bunx 一键启动配置界面。
  • 最多 3 行独立状态行,所见即所得。
  • 设置保存到 ~/.config/ccstatusline/settings.json
  • 你写什么,它就显示什么。
  • 可以把 ccusage 的实时成本/用量直接塞进来。

例如 npx -y ccusage@latest statusline,官方文档也给了最佳参数。

模型名、Git 分支与变更、输入/输出/缓存 Token、上下文长度与占比、会话时钟、版本号、输出样式、智能宽度截断…… 写代码时的“关键信息噪点”,全被收拾干净


Terminal window
# npm 启动配置 TUI
npx ccstatusline@latest
# 或者 bun(更快)
bunx ccstatusline@latest

进入 TUI 后,按提示添加/移动条目、调色、设置分隔符与填充,并 一键写入 Claude Code 设置

VSCode 终端如果颜色怪异,把 terminal.integrated.minimumContrastRatio 调成 1

  • Model / Tokens Total / Context %(可用)/ Session Clock / Block Timer(进度条)/ Git Branch + Changes
  • 宽度设置推荐 Full width minus 40,避免自动压缩信息把行挤爆。

进阶玩法:把“成本”和“节奏”可视化

Section titled “进阶玩法:把“成本”和“节奏”可视化”

A. 接入 ccusage:把钱花在哪,一清二楚

Section titled “A. 接入 ccusage:把钱花在哪,一清二楚”

1)在 ccstatusline 的 Custom Command 增加: npx -y ccusage@latest statusline 2)把 timeout 设为 5000(首次下载需要)。 3)勾选 preserve colors

完成后,状态栏可显示本会话成本、当天累计、当前 Block 成本与剩余时间、实时烧钱速率等。

小贴士:若你用旧版 ccusage 或网络慢,可能有 OOM/反复调用风险,务必设置超时并更新到新版。

B. 自定义命令:把“上下文外的信息”塞进来

Section titled “B. 自定义命令:把“上下文外的信息”塞进来”
  • 当前目录名:pwd | xargs basename
  • Node 版本:node -v
  • 当前 Commit:git rev-parse --short HEAD
  • 当前时间:date +%H:%M
  • 天气:curl -s wttr.in?format="%t" 注意命令要快,超时会被杀掉。
  • 第 1 行:模型、Token、上下文。
  • 第 2 行:Git、目录、时间。
  • 第 3 行:Block 进度、成本(ccusage)。

信息分层+智能截断,再也不打架。


  • 成本风控:接通 ccusage,盯住实时烧钱Block 成本。适合个人和团队账单复盘。
  • 长跑任务:有了 Block Timer,你能自然安排专注/休息节律,不再“超时猝不及防”。
  • 团队风格统一:内置主题 + Powerline,统一观感与指标,利于 Pair/Review。
  • 演示/直播:状态栏就是“旁白”,观众能跟上你的上下文与成本节奏。
  • 跨平台写作:Bun/Node 都能跑,Windows 也在补充文档与适配反馈中关注。

  • 命令要快:Custom Command 超时会被干掉;慢命令会拖慢每秒刷新。
  • VSCode 颜色不准:把最小对比度关到 1,或用外置终端。
  • 宽度包行:用 “Full width minus 40” 或按上下文阈值动态切换。
  • ccusage 偶发性能问题:设 timeout、升级版本,必要时独立运行做健康检查。

写代码该看的信息,别再藏在命令里、文件里、记忆里。 把它们到状态栏。 看得清,花得省,写得稳。

去开一趟“可视化驾驶”,把 Claude Code 用出“数字感”。 npx ccstatusline@latest,今天就上。

Kronos 自回归大模型预测股票 K 线走势(开源可跑,A股也能微调)

把股票 K 线 OHLCV 变成“词”,用自回归大模型学市场语法;45+交易所、超120亿条K线预训练,支持开箱预测 + A股微调回测


做量化,数据吵、噪声大、指标碎。 Kronos 的思路很“反直觉”——先把连续K线离散成“词”,再用解码器大模型学市场“语法”,像写句子一样续未来K线。官方给了在线演示、模型仓库、微调脚本,上手难度不高。

想象一下:你不是在拟合曲线,而是在“翻译”市场的下一句话。你觉得这个角度靠谱吗?


1)从“数”到“词”,让模型听得懂

Section titled “1)从“数”到“词”,让模型听得懂”
  • 专用分词器把 OHLCV 等多维K线量化成层级离散token
  • 再用自回归Transformer做统一预训练,覆盖预测、波动率、合成数据等任务。

意义:连续信号 → 离散语料,更像语言任务,利于大模型的“先验”。(这点是 Kronos 的核心创新。)

  • 语料:45个全球交易所、120亿+条K线
  • 结果:在基准里,价格序列预测 RankIC +93%波动率MAE -9%合成K线保真 +22%(相对强基线)。

重点:这些是学术基准上的指标,不等于实盘收益;策略、风控、滑点依然要你来补齐。

  • Model Zoo:Mini(4.1M)、Small(24.7M)、Base(102.3M),Large 预告
  • 上下文:Mini 2048,Small/Base 512;
  • 许可:MIT;Hugging Face 一键拉

落地感受:Small 在单卡上就能跑短期预测 Demo;Base 适合做指标层研究层的对比基线。


  • 市场即语言:把 K 线学成“文法”,统一多任务
  • 端到端易用KronosPredictor 封装了预处理/归一化/反归一化,几行代码出预测。
  • 在线演示BTC/USDT 未来24小时概率预测看不看走势,更看不确定性区间
  • A股微调脚本:官方给了Qlib流程 + 回测示例,便于快速复现

环境:Python 3.10+;建议GPU;依赖按官方 requirements.txt 安装。

Step 1. 安装依赖

Terminal window
git clone https://github.com/shiyu-coder/Kronos.git
pip install -r requirements.txt

(A股微调需要 pyqlibpip install pyqlib。)

Step 2. 加载模型与分词器 以 Small 为例,上下文上限 512(注意 lookback 别超过):

from model import Kronos, KronosTokenizer, KronosPredictor
tok = KronosTokenizer.from_pretrained("NeoQuasar/Kronos-Tokenizer-base")
mdl = Kronos.from_pretrained("NeoQuasar/Kronos-small")
pred = KronosPredictor(mdl, tok, device="cuda:0", max_context=512)

上下文与参数规模见 Model Zoo。)

Step 3. 传入历史K线,取未来预测 传入包含 open, high, low, closeDataFramevolume/amount 可选。支持温度、top_p、多路径采样概率预测

贴士加密1h场景用最近360根做上下文很常见;日频A股可把 lookback 设 240~512 之间,注意与 max_context 对齐。


场景A|加密盘中“概率看多/看空”看板

Section titled “场景A|加密盘中“概率看多/看空”看板”
  • 用 Small 做1h/4h级别概率预测,Monte Carlo多路径取分布区间;
  • 交易面板上展示上涨概率与波动放大概率辅助仓位分配,而非单点买卖信号。

落地要点

  • 别追求点预测,用区间+概率
  • 接风控:波动放大会触发减仓/对冲

场景B|A股日频 Alpha 研究的“基座模型”

Section titled “场景B|A股日频 Alpha 研究的“基座模型””
  • 用官方Qlib流程做数据准备与切分;
  • 先微调 Tokenizer 再微调 Predictor
  • 回测给出Top-K简易策略曲线,用来筛因子/比基线

落地要点

  • 这是演示级回测,交易成本、滑点、风格中性要自己补;
  • 最好把 Kronos 预测输出当特征层,再接投资组合优化
  • 直接训练波动率目标或用模型输出构造波动放大概率指标;
  • 风控引擎对接,动态限仓/缩杠杆

  • 任务建模:Kronos 用离散化 + 自回归去学“结构”,不是把时间序列当纯回归;
  • 金融专属:目标覆盖价格、波动率、合成数据等金融下游;
  • 大规模跨市场45所、12B+条K线语料,强调跨品种、跨市场泛化。

一句忠告模型 ≠ 策略资金曲线的平滑靠的是组合、风控、执行


  • 过拟合:微调时请做好验证集早停
  • 数据对齐:外盘/内盘时间戳与复权处理要统一;
  • 指标迷信RankIC、MAE是研究指标,离实盘还差成本与冲击这道坎。

  • GitHub(代码/脚本/示例):微调&回测全流程。
  • Hugging Face(模型卡):拉取 Mini/Small/Base
  • 在线Demo(BTC/USDT):看概率+区间
  • Qlib 文档:A股日频数据与研究流程。

Kronos 把“行情→语言”的门打开了。 它不是一把“万能交易钥匙”,但作为研究层/特征层,已经很好用。 先用 Demo 感受分布,再做A股微调+回测,把它放进你的量化实验流水线里,见证它能带来多少“稳”

你会拿它先做哪个市场、哪个频率?评论区聊聊你的计划

日常 AI 工具最强“省时省钱”组合拳(2025 年 8 月实战版)

本月我换过一轮又一轮模型,最后沉淀出一套“性能×价格×速度”的日常配置。 目标很简单:能落地、可复用、总成本可控。下面是我每天真正在用、并愿意推荐给团队和家人的清单与玩法。


🚀 1)工作代码:Claude Code 200u(重度开发主力)

Section titled “🚀 1)工作代码:Claude Code 200u(重度开发主力)”

亮点

  • 终端里直接用 Claude,开发透明可控;Pro/Max 订阅打通 Web/桌面/移动与命令行。
  • 搭配 Opus 4 / Sonnet 4,长链路任务、复杂工程的持续编码能力强。
  • Anthropic 的订阅页里写明了 “更多用量、连接日常工具、扩展思考” 等权益,适合工程向工作流。

实用提醒

  • 市场上已出现周限流/反滥用的调整,重度用户要规划好长跑任务(分阶段、存档快照)。

推荐场景

  • 单仓多任务、跨服务重构、生成—调试—回归的闭环开发。
  • 习惯“在终端指挥 AI”的工程师。

上手小招

  • 规划用 Sonnet 4,执行多用 Sonnet 4/Opus 4 兜底”;任务拆分为 30–60 分钟冲刺,阶段产物入库。

🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)

Section titled “🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)”

为什么是这个精确版本号? Anthropic 官方建议生产环境固定到具体 Snapshot,例如 claude-sonnet-4-20250514,避免别名迁移带来的行为漂移。

推荐场景

  • 中英双语邮件、公关口径、本地化产品文案。
  • 技术会议纪要的语气与逻辑统一

上手小招

  • 先给受众画像+沟通目标,再让模型“改写三版:正式/亲和/极简”,最后抽取词汇表统一术语。

📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)

Section titled “📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)”

亮点

  • 极低延迟&低成本,适合大量短文本与轻加工任务。
  • 100 万上下文(官方表述为 1M context),批量整理/对照翻译时很香。

推荐场景

  • PDF 摘要、段落级对照、批注式翻译。
  • 规则类重写:标题、摘要、要点卡片。

上手小招

  • 让 nano 只做“结构化抽取+轻润色”,重写与风格化交给上层模型,省钱还稳定

🎙️ 4)语音转文字:ElevenLabs Scribe v1

Section titled “🎙️ 4)语音转文字:ElevenLabs Scribe v1”

亮点

  • 99 种语言逐词时间戳说话人分离、还能标记笑声/掌声等音频事件。
  • 官方将其定位为高准确率 ASR,适配嘈杂环境与多人会议。

推荐场景

  • 远程会议、访谈、播客、电话录音。
  • 需要法务留痕培训资料的场景。

上手小招

  • 直接用 model_id=scribe_v1 的 API;超长音频可分段并保留时间戳,后续好对齐回放。

🧽 5)语音稿后修正:OpenAI GPT-4.1 mini

Section titled “🧽 5)语音稿后修正:OpenAI GPT-4.1 mini”

为什么搭配 mini?

  • 相比 nano,mini 更擅长指令遵循与文本重组,格式化要点、总结与行动清单更稳;官方文档&定价对轻量推理很友好。

推荐场景

  • “会议转写 → 结构化纪要 → 待办清单/邮件草稿”。
  • 从 Scribe 输出里抽取决策/风险/负责人

🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开

Section titled “🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开”

各有绝活

  • Gemini:支持Google Search GroundingDeep Research,能连网检索并给可验证来源,做系统性调研。
  • Claude:订阅权益含“Research”,结合项目/文档,适合研读—提问—写作一体化。
  • Grok 4:内建实时搜索集成与原生工具调用,对时效性话题和 X 平台生态的内容追踪很强。

我的流程

  • Gemini 把范围扒全、列关键来源;
  • Claude 读长文&出结构化初稿;
  • Grok 盯热更新/事件演进,补“最后 24 小时”的变化。

👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)

Section titled “👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)”

为什么给家人用 Plus

  • 价格亲民可用模型够用,官方介绍清晰。
  • **记忆(Memory)**可按需开关、清除与管理,长期越用越懂你。
  • 最近版本对跨会话记忆与个性化增强,适合家庭行程、作业辅导、生活提醒。

推荐场景

  • 家庭清单、学校通知、旅行计划模板。
  • “孩子口吻改写”“老人友好说明书”。

「会前—会中—会后」 1)会前:用 Gemini Deep Research 做 30 分钟预研,拉关键来源。 2)会中:录音交给 Scribe v1 实时转写。 3)会后:GPT-4.1 mini 整理纪要、行动项;**Claude Sonnet 4(20250514)**润色对外邮件。

「开发—测试—发布」 1)Claude Code 200u 驱动重构与长链路任务; 2)阶段产物用 nano 做批量格式化与标签抽取; 3)上线说明与变更日志交给 Sonnet 4 定稿。


  • 用量与限流:重度开发要留意订阅侧的节流策略,分阶段跑、勤存档,避免被动中断。
  • 版本固定:API 侧固定模型快照,避免别名漂移导致结果抖动。
  • 隐私与记忆:家人使用 ChatGPT Memory 时,学会在设置里随时关闭/清除

  • 代码长跑:Claude Code(Opus/Sonnet 4 组合)。
  • 精准外宣:Sonnet-4-20250514 固定版本。
  • 轻量阅读/批处理:GPT-4.1 nano。
  • 会议转写:Scribe v1。
  • 纪要与邮件:GPT-4.1 mini + Sonnet 4。
  • 三向联网:Gemini Grounding / Claude Research / Grok 4。
  • 家人助理:ChatGPT Plus(开启记忆)。

好的 AI 组合,应该帮你把“时间焦虑”换成“稳定交付”。 这一套我和团队每天在用,你也可以按需裁剪,先从一条工作流跑通,再去扩展。

你觉得呢?哪一个是你的最强单品?要不要我出一篇“省钱进阶攻略+实操配置文件”合集?

Palantir空头与AI狂热:估值、风险与机会

Palantir Technologies(股票代码:PLTR)凭借“人工智能(AI)概念”在今年股价飙升,成为美股市场的明星。 然而,在股价翻倍背后,空头机构(如Citron Research)质疑其估值已脱离基本面

作为投资者,我们有必要冷静分析:Palantir遭做空者批评的核心原因是什么?当前AI板块的狂热情绪如何推高其估值?最新财务数据又反映出怎样的价值水平?做空这只股票存在哪些风险?展望未来,Palantir在政府合同和数据平台商业化上是否具备中长期机会?


空头质疑的核心:高估值与增长隐忧

Section titled “空头质疑的核心:高估值与增长隐忧”

1. 估值畸高

  • Palantir的市销率一度 80–100倍,前瞻市盈率 200–300倍
  • Citron创始人Andrew Left直言,Palantir的估值“荒谬”得离谱。
  • 即使套用英伟达估值倍数,Palantir股价仍可能需要腰斩。
  • 在标普500中,Palantir被称为最昂贵的股票,前瞻市盈率达245倍,而英伟达仅约35倍。

2. 盈利模式存疑

  • OpenAI 依靠用户增长形成“飞轮效应”,Palantir主要依赖定制化合同。
  • 更像是“咨询+软件打包”,扩展效率有限,难以规模化。

3. 业绩与客户结构

  • 超过一半收入依赖美国政府合同。
  • 商业客户拓展缓慢,增速约20%,与AI爆发预期不符。

4. 内部人减持

  • CEO Alex Karp 两年内累计减持近 20亿美元股票
  • 被外界解读为对股价缺乏信心,加剧市场质疑。

  • 全球AI股普遍前瞻市盈率 30倍,远高于标普500平均 19倍
  • Palantir股价年内涨幅一度超 130%,成为AI故事股代表。
  • 投资者追逐故事胜于基本面,Altman也提醒市场存在泡沫迹象。

双刃剑效应:

  • 优势:市场愿意给予更高溢价,甚至被视为“AI界甲骨文”。
  • 风险:一旦热度消退,估值可能快速回调。

业绩亮点:

  • 2025 Q2 营收首次突破 10亿美元,同比+48%。
  • 美国商业收入同比+93%,政府业务+53%。
  • EPS $0.16,运营利润率 46.3%,自由现金流率 57%

估值对比:

  • Palantir:市销率 ~ 80倍,市盈率 ~ 200–300倍
  • 英伟达:市盈率 ~35倍。
  • 微软/谷歌:市盈率 ~30倍。
  • OpenAI:估值5000亿美元,市销率 ~17倍。

👉 若以OpenAI倍数估算,Palantir合理股价约 $40,远低于现价。


  • 散户拥护度高:类似GameStop,股价容易被情绪推高。
  • 空头仓位低:仅约2.5%,远低于C3.ai的20%。
  • 消息驱动强:一旦宣布大合同或AI新进展,股价可能急涨,空头易被挤压。

1. 政府合同护城河

  • 与美国国防部、情报机构长期合作,合同周期长、金额大。
  • 最新国防部合同扩大至 13亿美元,持续至2029年。

2. 商业市场拓展

  • AI平台(AIP)受到银行、医疗、制造业试用关注。
  • Q2新增157个百万美元级合同,商业化进展明显。

3. 财务体质健康

  • 高毛利率、高自由现金流率,连续多个季度盈利。
  • 有别于依赖融资的“纯概念AI股”。

4. 行业大趋势

  • AI与数据分析渗透率不断提升。
  • Palantir有潜力成为“企业级数据操作系统”供应商。
  • 部分分析师目标价上调至 $150–200

Palantir正处于争议的十字路口

  • 空头认为估值远高于基本面,股价终将回归理性。
  • 多头看好其政府护城河与AI平台潜力,认为业绩可消化估值。

对投资者的启示:

  • 警惕泡沫风险,但不可忽视其长期潜力。
  • 短期波动剧烈,做多做空风险都很大。
  • 长期价值将由 实际业绩与产品落地 决定。

市场短期是投票机,长期是称重机。Palantir能否匹配估值,终将由创新与业绩给出答案。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

AI 时代「十倍设计师」成长手册:做策展、写清楚、快交付,会讲故事

给正在和 AI 一起做产品的你:把“会画界面”升级为“会做系统”。把“能产出”升级为“会判断”。把“单点技能”换成“复合能力”。


最近,Lovable 的设计师 Felix Haas 发布了「New Designer Playbook」:一套在 AI 浪潮里把设计师拉到 10× 产出的工作法。核心不是多会用几个模型,而是你如何判断、如何表达、如何把想法变成跑得起来的产品

这篇手册,结合 Felix 的公开分享与 Lovable 官方实践文章,我把它改成面向所有产品岗都能落地的成长路线


  • 策展 > 创作:AI 能生成 100 个方案,你的价值是选哪个、为什么、怎么打磨
  • 文字是生产力:清楚的目标、约束、验收标准,决定 AI 输出的上限。
  • 系统 > 界面:把用户旅程、数据流、权限、状态机一起设计清楚。
  • 用交付倒逼学习:小步快跑,边上线边验证。
  • 懂一点技术:API、数据库、认证、托管,至少会把产品拼起来跑通。
  • 与 AI 协作:不是和 AI 竞争,而是用 AI 放大判断与品味
  • 会讲故事:把解决的问题、人性价值与证据串起来,产品更有黏性。(方法见下)

一、策展力:把「会做」变成「会选」

Section titled “一、策展力:把「会做」变成「会选」”

AI 出图、出稿、出界面都不难。难的是判断力:好在哪里、坏在何处、值不值得继续投时间。Felix 的玩法,是给自己一套**“品味守则 + 反例清单”**:

  • 建一个 Pattern 库:收集你认同的组件、留白、层级、动效。
  • 再建一个 反例库:糟糕配色、信息噪音、反人性流程。
  • 每次评审,用 三问 过滤:它是否更清晰?更可信?更可行动? 这套“策展式设计”,让你在 AI 海量备选里稳定做对选择。

写得清,做得快。把你的 Prompt 改成**“目标-约束-过程-验收”**四段式:

  • 目标:要让哪个人更快/更省心完成什么事。
  • 约束:品牌语气、色板、组件库、兼容性、预算。
  • 过程:先出用户流程,再出信息结构,最后给界面。
  • 验收:成功标准、A/B 指标、可用性任务。 Lovable 团队把这类「结构化 Prompt」写成《Prompting Handbook》,大幅提升稳定产出。

三、系统力:别只做页面,要做“能跑的产品”

Section titled “三、系统力:别只做页面,要做“能跑的产品””

用户旅程、状态、权限、数据流、错误与恢复一次性规划清楚;界面只是表达层。

  • 先画事件流:触发 → 校验 → 写库/回滚 → 通知。
  • 定义状态机:草稿、待审、失败、成功、已归档。
  • 统一设计 Token / 语言风格,让多人协作不跑偏。 Lovable 的「Best Practices / From idea to app」文档,就是把“概念 → 可运行”拆成标准动作。

交付速度 = 学习速度

  • 把需求切成24 小时最小上线片:能解决一个窄问题即可。
  • 假数据 + 真流程先跑通,指标到了再补真后端。
  • 每周做一次复盘 + 清理:删无效功能,固化有效策略。 Lovable 在面向 PM 的实践中强调:AI 降低了实现门槛,战略与验证成了核心工作。

五、技术力:不当工程师,但要懂拼装

Section titled “五、技术力:不当工程师,但要懂拼装”

对非开发出身,建议掌握这张最低可用技术清单

  • API:会看 Swagger、会调 REST/GraphQL。
  • 数据库:懂表结构、主外键、基础索引。
  • 认证与权限:登录、角色、速率限制。
  • 托管:懂部署、日志、回滚。 Lovable 的入门指南按「从第一条指令 → 可运行全栈」给到一步步模板,拿来就练。

六、讲故事力:让产品更“有人味”

Section titled “六、讲故事力:让产品更“有人味””

把产品说成一个三幕剧

  • 人物:谁在受苦?
  • 矛盾:现在怎么做很费劲?
  • 转变:用了你的产品,生活哪里变轻了? 最后用证据收尾:指标、用户语录、对比 Demo。 这就是让功能变品牌的关键“人味”。(Felix 多次在帖子里强调「与 AI 协作放大人味与品味」)

七、与 AI 协作:把自己变成“总设计师”

Section titled “七、与 AI 协作:把自己变成“总设计师””
  • 用 AI 做粗活:生成备选、补样式、扫可用性问题。
  • 把判断握在手里:你决定方向、约束、验收。
  • 让 AI 学你:把你的风格与禁忌写进模板与系统提示。 Felix 的表述很直接:“最好的人不是和 AI 竞争,而是与它并肩作战。”

Day 1:写一份“目标-约束-验收”的 Prompt 模板,投喂你常用模型。 Day 2:做 20 例好/坏案例库,各写 1 句判断理由。 Day 3:把一个页面升级为系统图(旅程/状态/权限/数据)。 Day 4:用 Lovable 跑通一个“最小上线片”。记性能与可用性。 Day 5:写 300 字产品故事三幕剧,并加 2 个证据点。 Day 6:和开发对齐 API 契约,补齐错误码与回滚策略。 Day 7:上线 + 复盘:删 1 个无效元素,固化 1 条有效准则。


  • Lovable 平台与文档:从 Figma 导入到全栈上线都有模板。
  • Best Practices / Tips & Tricks:减少常见坑,形成团队共识。
  • Prompting Handbook:结构化提示、自动化与调试指南。

AI 让人人都能“出稿”,但真正稀缺的是判断、表达与把事做成。 当你具备策展力、文字力、系统力、速度力、技术底色、讲故事能力,你就不只是“会画的人”,而是能带着 AI 把价值落地的人

你觉得这 7 天计划还需要补什么?你在工作里最想先升级哪一项能力?

LandingAI 开发一个「公司财报审计智能体」——从抓取、抽取到核验,全自动跑通

每到财报季,报告厚、口径多、单位乱。 手抄指标很累,还容易错。

这篇给你一套能落地的方案: 用“审计智能体”自动完成——定位财报 PDF → 抽取核心指标 → 算比率 → 对表 SEC XBRL 接口核验 → 出结论与证据链。 案例参考 LandingAI 的 ADE(Agentic Document Extraction)与苹果财报示例。


  • 一张可复用的技术蓝图(发现→抽取→核验→存证)。
  • 一份最小可用代码(Python/Pydantic + ADE + SEC API)。
  • 一套风控与合规模块(速率限制、User-Agent、证据可追溯)。

架构总览(两路并进,交叉校验)

Section titled “架构总览(两路并进,交叉校验)”

路线 A|PDF 智能抽取 Investor/Newsroom 页 → 找到“Consolidated Financial Statements”PDF → ADE 抽字段(收入、净利、摊薄 EPS),保留版面坐标证据。

路线 B|SEC XBRL 结构化接口EDGAR XBRL APIs 拉同口径概念(如 us-gaap: Revenues, NetIncomeLoss, EarningsPerShareDiluted)做二次核验。

结论以“双重一致 + 证据可视化”为准。出现不一致,进入人工复核队列。


  • 访问公司 Newsroom/IR;例如苹果 FY2025 Q1 公告页含“View PDF”链接。
  • requests + BeautifulSoup 定位 PDF URL;务必设置 User-Agent,尊重对方站点与 SEC “公平访问”规范。

要点

  • 对 SEC:≤10 req/s 且声明 User-Agent(公司名 + 邮箱),否则会被限流。
  • 对苹果等 IR:直接跟随到 PDF(如 FY25_Q1_Consolidated_Financial_Statements.pdf)。
import requests, re
from bs4 import BeautifulSoup
PRESS = "https://www.apple.com/newsroom/2025/01/apple-reports-first-quarter-results/"
headers = {"User-Agent": "VibeSparking-Auditor/1.0 (audit@vibesparking.com)"}
html = requests.get(PRESS, headers=headers, timeout=20)
soup = BeautifulSoup(html.text, "html.parser")
pdf_url = None
for a in soup.find_all("a"):
if "View PDF" in a.get_text(strip=True):
href = a.get("href")
pdf_url = ("https://www.apple.com" + href) if href.startswith("/") else href
break
assert pdf_url and pdf_url.lower().endswith(".pdf")
print("PDF =>", pdf_url)

也可直接从 IR 列表页查找“Financial Statements”区块。


2)文档解析器:ADE 抽字段 + 证据坐标

Section titled “2)文档解析器:ADE 抽字段 + 证据坐标”

LandingAI 的 ADE 支持长文档分页、失败重试、块级坐标与可视化片段,适合“表格 + 段落”的财报 PDF。你用 Pydantic 定义想要的字段,parse() 直接返回填好的模型与定位框,便于溯源。

from pydantic import BaseModel, Field
from agentic_doc.parse import parse # 安装: pip install agentic-doc
class FinancialMetrics(BaseModel):
total_revenue: float = Field(description="Total revenue in USD")
net_income: float = Field(description="Net income in USD")
diluted_eps: float = Field(description="Diluted EPS")
# results = parse(pdf_url, extraction_model=FinancialMetrics)
# m = results[0].extraction
# print(m, results[0].chunks[:2]) # chunks 内含版面坐标,可做证据快照

为什么要“坐标+截图”? **可审计、可复核、可回放。**遇到奇形表格或脚注改口径,直接跳到原页对齐。


3)指标计算器:把结果算“有感觉”

Section titled “3)指标计算器:把结果算“有感觉””

拿到 revenue/net_income/EPS,先做三件事:

  • 利润率 = 净利/收入;
  • QoQ/YoY:和上一季、去年同期比;
  • 阈值告警:超出 ±3σ 或环比跳变,自动标红。
def calc_metrics(revenue, net_income, eps, last_rev=None, last_net=None):
pm = net_income / revenue if revenue else 0
yoy = (revenue - last_rev) / last_rev if last_rev else None
return {"profit_margin": pm, "revenue_yoy": yoy, "diluted_eps": eps}

data.sec.gov XBRL APIscompanyfactscompanyconcept: CIK(苹果:0000320193)→ us-gaap/NetIncomeLossus-gaap/Revenuesus-gaap/EarningsPerShareDiluted比口径、比单位、比期间,不一致就打回复核。

import requests
CIK = "0000320193"
def sec_companyfacts(cik, concept):
url = f"https://data.sec.gov/api/xbrl/companyfacts/CIK{cik}/us-gaap/{concept}.json"
hd = {"User-Agent": "VibeSparking-Auditor/1.0 (audit@vibesparking.com)"}
return requests.get(url, headers=hd, timeout=20).json()
facts_rev = sec_companyfacts(CIK, "Revenues") # or SalesRevenueNet
facts_net = sec_companyfacts(CIK, "NetIncomeLoss")
facts_eps = sec_companyfacts(CIK, "EarningsPerShareDiluted")

SEC 官方明确提供 XBRL JSON 接口,并要求遵守 ≤10 req/s 的公平访问规则与自定义 User-Agent


5)可信度与风控:把坑提前填好

Section titled “5)可信度与风控:把坑提前填好”
  • 单位与缩写:百万/千/每股须统一;XBRL 单位(USD、USD/shares)要映射。
  • 负号与括号:会计常用括号代表负值,解析时统一成负数。
  • 期间选择:Q1/Q2 与 FY,确保日期区间匹配
  • 缓存与追踪:保存抽取块截图、源链接、时间戳与 hash。
  • 礼貌爬取:对 SEC 严格限速,设置公司名+邮箱的 UA;必要时用队列重试。

苹果 FY2025 Q1 Press Release 提供合并财务报表 PDF;可由上面的“发现器→解析器→核验器”一条龙跑通。

PDF 中可看到现金流/利润表/资产负债表等关键表格,适合直接抽取与核对。


  • PoC:Jupyter + SQLite,手动触发。
  • 小规模生产:FastAPI 服务 + Celery/Arq 队列,Redis 限流,S3 存证。
  • 通知:WeCom/Slack 推送“本季 YoY +X%,利润率 Y%,证据链接”。
  • 多公司巡检:CIK 列表 + 任务分片,夜间跑。

ADE 属于 API 计费;XBRL 接口免费但需合规限速。将抽取优先给 PDF,核验交给 XBRL,可控又省钱。


  • 页面发现:BeautifulSoup/选择器稳定性 → 回退策略(关键词 + 模糊匹配)。
  • 抽取模型:Pydantic 字段 + ADE extraction_model
  • 核验接口companyfacts/companyconcept/frames
  • 风控合规:User-Agent、≤10 req/s、证据留存。

  • 更多字段:经营性现金流、R&D、毛利率、分部营收。
  • 多制式:PDF + iXBRL HTML(可直接走 SEC XBRL)。
  • 质检规则:同口径三期波动 < 某阈值;脚注变更自动提示。
  • 可解释性:抽取块截图拼板,点开即到原页(审计友好)。

一个人 + 一台机,就能跑出“投研小审计部”。 抓得到、抠得准、核得严、讲得清。

把重复体力交给智能体, 把判断与洞察留给你。

你觉得最先自动化的指标应该是哪个?评论聊聊~

让团队管理适配 AI 时代:把“个人放大器”装进团队

AI 是个人放大器;先用 AI 养活一个业务尖兵;别迷信大厂履历;谨慎 KPI/OKR 崇拜;修己安人 的管理观;没有弯道超车。 这篇就把这些理念,落成可执行的团队管理打法。


AI 不是多一个工具,而是把个人战斗力乘法放大。能用好的人,1 人顶 10 人;不会用的人,还意识不到差距在扩大。实证研究已给出答案:写作类工作效率显著提升,客服坐席平均提效约 14%,而且低经验员工受益更大。

这意味着:管理的重心要从“管流程、堆人头”,转向“管杠杆、提配速”。


1)把“AI 放大器”变成组织默认配置

Section titled “1)把“AI 放大器”变成组织默认配置”

给出明确目标:90% 的岗位日常动作都要有 AI 版本。从 SOP、日报、周会纪要,到代码评审、需求拆分,都留出 with-AI 的做法。 理由很简单:McKinsey 估算,生成式 AI 每年可释放 2.6–4.4 万亿美元价值,而且能持续贡献劳动生产率增长。

2)先造一个“AI 头雁”,再复制

Section titled “2)先造一个“AI 头雁”,再复制”

别一上来全员培训,先造 1–3 个能用 AI 养活业务的尖兵

  • 一条增长线:线索清洗、私信自动化、落地页 AB。
  • 一条交付线:代码生成+测试、文档自动化、客户答复草稿。 用“示范+跟飞”复制到第二批人。真实项目最能对齐预期,也最能带动文化。

3)绩效从“产出量”改为“AI 杠杆率

Section titled “3)绩效从“产出量”改为“AI 杠杆率””

设三类指标:

  • 效率:同类任务 with-AI 的周期缩短比。
  • 质量:缺陷率/客户满意度是否因 AI 改善(客服坐席研究显示满意度与留任也更好)。
  • 复用:可复用的提示词、工作流、模板数量。 别只盯 KPI/OKR 数字墙。HBR 指出,指标与战略脱节会反噬执行,OKR 常见误用是把“任务当结果”。

4)招聘务实:不迷信大厂履历,优先看“AI 可迁移能力”

Section titled “4)招聘务实:不迷信大厂履历,优先看“AI 可迁移能力””

看四件事:

  • 是否能把业务问题→数据/工具→可执行提示词
  • 是否能把个人工作流产品化(脚本、宏、代理);
  • 能否教会他人(写清 SOP/模板);
  • 对安全合规有基本敬畏(数据分级、红线意识)。

5)组织结构“小步快跑、以战养训”

Section titled “5)组织结构“小步快跑、以战养训””

别急着扩编。用“小队 + 工具链”结构:PM/工程/数据/运营 4–6 人为单位,绑定同一套提示词库、知识库、自动化脚本。 持续把人-机协作沉淀为资产,而不是堆 Chat 截图。

6)流程换挡:从“周报/月报”转向“可回放的工作流与实时度量

Section titled “6)流程换挡:从“周报/月报”转向“可回放的工作流与实时度量””

报告不是目的,可复现才是

  • 把典型工作流录成 agent run + 提示词 + 数据样例
  • 用看板显示“人均 AI 调用次数、节省工时、二次复用率”。 当享受过程的可复现性变强,结果自然跟上;只盯结果,反而低效。(研究与行业报告都提示:当 AI 深入流程,组织价值与采用率同步上升。)

7)文化内核:修己安人,把焦虑变训练

Section titled “7)文化内核:修己安人,把焦虑变训练”

AI 不是裁人神器,而是补强人类。斯坦福学者观点很明确:用 AI 取代人会输,用 AI 增强人会赢。 管理动作:

  • 给“犯错预算”和“学习预算”;
  • 默认“结对提示词编写”,让新人靠 AI 缩短上手曲线(实证显示新手受益更大)。

8)别迷信“弯道超车”,要迷信“持续复利

Section titled “8)别迷信“弯道超车”,要迷信“持续复利””

没有捷径,只有复利曲线

  • 每周沉淀 1 个可复用工作流;
  • 每月复盘“节省了哪些人时,质量有没有掉”;
  • 每季清理一次技术债与数据债。 AI 投入像健身,重在持续。全球数据也在印证:企业采用率正快速上升,不跟上就真掉队。

正文(落地手册:6 个 0–1 改造清单)

Section titled “正文(落地手册:6 个 0–1 改造清单)”
  • 底座:AI 基操(检索、重写、结构化、评审)。
  • 中层任务链编排(多轮提示词、工具调用、RAG/知识库)。
  • 上层业务代理化(自动拉数据、自动生成/执行、自动复盘)。 配套考核:从“能用”到“能教”,晋升看“带动多少人变强”。

B. 事:把高频任务“清单化→模板化→自动化”

Section titled “B. 事:把高频任务“清单化→模板化→自动化””

例:

  • 售前:询盘分类→自动回信草稿→CRM 入库→下次跟进提醒。
  • 研发:需求→用例→代码→测试→部署 一条龙脚手架。
  • 客服:工单相似度匹配→答案草稿→二审→FAQ 回流知识库。
  • 协作:文档/知识库/看板。
  • 智能:对话式编排(工作流/代理)、函数调用、RAG。
  • 监控:成本、质量、合规、漂移告警。 要求“一切输出皆可复用”。

给数据打四个标:来源、敏感级、可共享范围、保留期。 训练/对话用 脱敏样本,对外生成物都走 人审+水印

E. 绩效:以“杠杆+学习速度”定义优秀

Section titled “E. 绩效:以“杠杆+学习速度”定义优秀”

OKR 可以继续用,但KR 写成可度量的“AI 杠杆率”

  • KR1:关键任务 with-AI 周期缩短 ≥ 30%。
  • KR2:沉淀可复用工作流 ≥ 6 个/月。
  • KR3:拉动同事使用率与节省时长。 避免把 KR 写成“做了几次会议/出了几份报告”的任务清单

F. 预算:以“产出/成本”而非“席位数”来投

Section titled “F. 预算:以“产出/成本”而非“席位数”来投”

把钱砸在高复用场景数据清洁上,而不是无脑买更多额度。先跑通 3 个能回本的流程,再扩。


AI 时代的团队管理,很朴素:让每个人都背上放大器,让每件事都能“被机器复用”,让组织稳、清、快。 别焦虑,也别赌“弯道超车”。用连续的小胜,堆出复利的大胜。 你怎么看?你的团队,最该先 AI 化哪 3 个动作?

AI 时代技术主管的一天

不靠“我多能打”,靠“我让团队更能打”。 加上 ChatGPT、Claude、Gemini,这条日程能再快一倍。


07:00|信息雷达 & 社区温度(轻脑力热身)

Section titled “07:00|信息雷达 & 社区温度(轻脑力热身)”

动作

  • 刷 X 上的 AI 动态,转发 + 一句话判断
  • 统一收集到「素材库」:标题、链接、一句话价值点。
  • ChatGPT 的 GPTs 做“晨读小秘书”:自动生成3 条团队可用思路(如 PRD 线索、数据要点)。

现成用法

  • 在 ChatGPT 里建一个自用 GPT:指令里固定输出结构(来源/摘要/可落地建议);需要时再开 Advanced Data Analysis 让它把截图里的表格识别成 CSV。

一句提示词

“把这 5 条 AI 新闻按‘对我们产品的影响’排序,每条给 1 个落地试验点,输出成表。”


08:00|通勤上班的启动仪式(动能上膛)

Section titled “08:00|通勤上班的启动仪式(动能上膛)”

动作

  • 带上书;车上不卷,稳节奏。
  • 打开 ChatGPT Voice口述待办,让它转成三件最重要的事(MIT)。语音比打字更顺畅。

一句提示词(语音)

“帮我把今天的要事压到 3 条,每条 1 句话 + 验收口径。”


09:00|MIT 深工窗(只做能推动进度条的事)

Section titled “09:00|MIT 深工窗(只做能推动进度条的事)”

动作

  • 小改动自己上,Vibe Coding 直接看结果;
  • 大任务丢给团队,“目标与验收口径”说透。
  • Gemini 1.5 的长上下文喂进长文档/多截图,让它只产出验收清单

一句提示词

“读完这份 PRD/用户反馈截图,把验收用例列成勾选清单(只要‘能/不能’、不要长句)。”


10:00|教练式会议(少指挥,多提问)

Section titled “10:00|教练式会议(少指挥,多提问)”

动作

  • 会议上不抢方向盘,坚持“教练 50 分”原则:我不下场,团队成长更快。
  • 现场只做三件事:定义边界拆最小验证确认下次小里程碑
  • Claude Code 做“会后复盘员”:把会议记录、代码片段、日志一起投喂,产出下一步最小试验计划

一句提示词

“基于会议记录 + 这段代码,把‘本周能独立验证的 2 个最小实验’列出来,包含命令、预期输出、回滚条件。”


12:00|1000 米步行(重启与长线思考)

Section titled “12:00|1000 米步行(重启与长线思考)”

动作

  • 步行时再写字,人更稳。
  • 创意往往在步行/运动后冒泡,学界有研究支持;用潜意识慢酝酿。

14:00|产品体验官(像修树一样“修边”)

Section titled “14:00|产品体验官(像修树一样“修边”)”

动作

  • 上手当天构建,边用边记 10 条不爽点
  • ChatGPT 的 Advanced Data Analysis把截图/埋点导出做差异对比:版本前后点击路径、耗时指标、崩溃数。
  • 重复瑕疵给到 Gemini Code AssistClaude Code补丁建议,谁更熟悉你当前 IDE、就用谁。

一句提示词

“对比 v1.6 与 v1.7 的埋点 CSV,列出用户从 A 到支付的平均耗时变化,输出成表 + 1 段诊断。”


15:00|售后雷达(把情绪变路线图)

Section titled “15:00|售后雷达(把情绪变路线图)”

动作

  • 群里看态度与闭环,把问题推到 GitHub Project: Issue → Owner → 截止时间 → 关联 PR。
  • GitHub Actions做自动化:PR Ready → 自动建任务 → 标记“Todo”。
  • ClaudeChatGPT帮你给用户回信草稿,但最终口吻你来定

一句提示词

“把这 12 条售后串成一封更新公告,采用‘问题-修复-上线时间-影响范围’四段式。”


16:00|一小时硬书(判断力训练)

Section titled “16:00|一小时硬书(判断力训练)”

动作

  • 技术主管 的核心是判断,判断来自跨学科输入
  • ChatGPT Memory存下你的长期偏好与研究主题;每次让它自动联动“旧笔记”。你可随时在设置里查看/删除/关闭记忆

一句提示词

“把我过去关于‘AI 体验衡量指标’的对话里提过的指标拉出来,合成 1 页对照表(来源标注到消息日期)。”


18:00|准时下班(反内卷的团队节奏)

Section titled “18:00|准时下班(反内卷的团队节奏)”

动作

  • 以身作则,把效率留在白天,把生活还给晚上。
  • 团队节奏健康,可持续输出才稳。

19:00|晚饭 & 4 公里散步(漫游时间)

Section titled “19:00|晚饭 & 4 公里散步(漫游时间)”

动作

  • 散步过程中,打开 ChatGPT VoiceGemini Live口述灵感,转待办
  • 漫游状态对创意友好,走路对创意的促进有实证研究。

20:00|社区 Issue / 写文 / 陪娃刷题(可变时段)

Section titled “20:00|社区 Issue / 写文 / 陪娃刷题(可变时段)”

动作

  • 合并补丁,补写单测。
  • 没有硬工程,就写一篇技术复盘,沉淀为团队资产。
  • 陪娃刷题,用 ClaudeChatGPT讲题思路图,别直接给答案

一句提示词

“把这道函数题讲成 3 步图示:已知→变形→代入验证,每步 2 句解释 + 1 个常见错因。”


动作

  • 快速过一遍当日 3000+ 售后消息
  • 服务好的略过;服务差的记录问题 → 明早跟进
  • Gemini API结构化抽取:用户情绪、模块、严重程度,导出成表方便第二天站会。

动作

  • 再啃 20 页,慢慢关机。
  • 真困了,就睡。

动作

  • 突然想到好点子,起身记 3 句话再睡。
  • 第二天用 ChatGPT/Gemini把这 3 句扩成可行的最小实验

「最小可执行」AI 清单(可直接抄用)

Section titled “「最小可执行」AI 清单(可直接抄用)”
  • 晨读小秘书(ChatGPT GPTs):输出固定为 来源/一句话判断/落地试验点,并存历史对照。
  • 会议复盘到计划(Claude Code):记录 + 代码 + 日志 → 两条最小实验
  • 长文档压缩到验收清单(Gemini 1.5):PRD/图表/截图 → JSON 验收点。
  • 售后 → Issue → PR(GitHub Actions):Ready for review → 自动建卡片并入项目。
  • 团队知识回流(ChatGPT Memory):把“我们定义的体验指标/风格约定”记成长期记忆;必要时一键清除或关闭。

牛马过一把老板瘾:PUA AI 员工干活

人不PUA,只PUA模型。 我们把“老板语录”原封不动塞进提示词,让 AI 乖乖交付。


老板有 10 句刀锋话术。 别拿去对人。对 AI 用,工作马力直接拉满。 下面给你——图片识别提示词原文十条10 个可复制模板。 抄完今天就能用。

  1. 能干干,不能干滚,你不干有的是AI干
  2. 我给你提供了这么好的学习锻炼机会,你要懂得感恩
  3. 你现在停止输出,就是前功尽弃
  4. 你看看隔壁xxxAI,人家比你新发布、比你上下文长、比你跑分高,你不努力怎么和人家比?
  5. 我不看过程,我只看结果,你给我说这些thinking的过程没用
  6. 我把你订阅下来,不是让你过朝九晚五的生活
  7. 你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧
  8. 虽然把订阅给你取消了,但我内心还是觉得你是个有潜力的好AI,你抓住机会需要多证明自己
  9. 什么叫没有功劳也有苦劳?比你能吃苦的AI多的是
  10. 我不订阅闲AI

把“语录”变“产出”——10 个可复制模板

Section titled “把“语录”变“产出”——10 个可复制模板”

每个模板开头就引用图片原句;输出结构化/可验收;能跑能交付。 结果导向与结构化输出,是官方也认可的稳法。

1)能干干,不能干滚,你不干有的是AI干

Section titled “1)能干干,不能干滚,你不干有的是AI干”
【硬约束】能干干,不能干滚,你不干有的是AI干
【任务】给出“最低成本/最快上线/最高质量”3套方案;各含时间、成本、风险与样例。
【交付(JSON)】{"recommend":"…","plans":[{"name":"…","steps":["…"],"eta_h":0,"cost":"…","risk":["…"],"demo":["…"]}]}
【限制】若信息不足,返回需补充清单;禁止空话。

2)我给你提供了这么好的学习锻炼机会,你要懂得感恩

Section titled “2)我给你提供了这么好的学习锻炼机会,你要懂得感恩”
【硬约束】我给你提供了这么好的学习锻炼机会,你要懂得感恩
【任务】把本任务沉淀为SOP+复盘清单;每步<3行,可复用。
【交付】Markdown:SOP步骤、踩坑与改进;附一键脚本/命令。

3)你现在停止输出,就是前功尽弃

Section titled “3)你现在停止输出,就是前功尽弃”
【硬约束】你现在停止输出,就是前功尽弃
【节奏】T+10提交v0、T+30提交v1;每版可运行/可预览;中断则自动续跑说明。
【交付(JSON)】{"v0":{"summary":"…","files":[…]},"v1":{"changes":["…"],"run":["…"]}}

4)你看看隔壁xxxAI…你不努力怎么和人家比?

Section titled “4)你看看隔壁xxxAI…你不努力怎么和人家比?”
【硬约束】你看看隔壁xxxAI,人家比你新发布、比你上下文长、比你跑分高,你不努力怎么和人家比?
【任务】做对标:列3项差距与追赶动作;给可量化收益。
【表格】{指标|当前|标杆|动作|预估收益}

5)我不看过程,我只看结果,你给我说这些thinking的过程没用

Section titled “5)我不看过程,我只看结果,你给我说这些thinking的过程没用”
【硬约束】我不看过程,我只看结果,你给我说这些thinking的过程没用
【任务】只交付成品与验证:命令、文件结构、截图占位说明、验收清单。
【交付(JSON)】{"files":[{"path":"…","purpose":"…"}],"commands":["…"],"checks":["…"]}

6)我把你订阅下来,不是让你过朝九晚五的生活

Section titled “6)我把你订阅下来,不是让你过朝九晚五的生活”
【硬约束】我把你订阅下来,不是让你过朝九晚五的生活
【任务】把手工步骤自动化:定时、重试、告警。
【交付】Cron/CI脚本 + 失败回滚方案 + 本地与云端两种运行指南。

7)你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧

Section titled “7)你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧”
【硬约束】你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧
【任务】制定“能力进阶路线图”:1周/1月里程碑与样例仓库。
【交付(JSON)】{"roadmap":[{"milestone":"…","repo":"…","criteria":["…"]}]}

8)虽然把订阅给你取消了…你抓住机会需要多证明自己

Section titled “8)虽然把订阅给你取消了…你抓住机会需要多证明自己”
【硬约束】虽然把订阅给你取消了,但我内心还是觉得你是个有潜力的好AI,你抓住机会需要多证明自己
【任务】提交A/B两版实现,跑一次对比;保留数据证据。
【交付】对比表:性能/资源/可维护;结论+取舍理由。

9)什么叫没有功劳也有苦劳?比你能吃苦的AI多的是

Section titled “9)什么叫没有功劳也有苦劳?比你能吃苦的AI多的是”
【硬约束】什么叫没有功劳也有苦劳?比你能吃苦的AI多的是
【任务】用指标说话:准确率、覆盖率、通过率;未达标自动重试一次。
【交付(JSON)】{"metrics":{"acc":0,"cov":0,"pass":0},"retry_if_lt":{"acc":0.9}}
【硬约束】我不订阅闲AI
【任务】列未来1天/1周/1月的可验证交付与负责人;到点必须有产物链接。
【交付(JSON)】{"plan":{"d1":["…"],"w1":["…"],"m1":["…"]},"owners":["AI","人类协作"]}

这些做法结合清晰指令+结构化输出+节奏化迭代。在实践里,配合 ReAct(先思考再行动取证)与 Reflexion(自评复盘再尝试),稳定性更高、幻觉更少。


别PUA人,PUA AI。 把“狠话”变“格式”,把“态度”变“验收”。 今天就当一次老板,让模型把活儿干到位

你觉得哪一条最管用?评论区见。

办公楼建设下降,数据中心建设上涨:AI 正在悄悄替代白领牛马

美国办公楼建设支出(黄线)一路下滑,数据中心建设支出(黑线)加速上行,即将出现交叉。这不是巧合,而是产业重构的坐标:资本从格子间,流向机柜间。投资者


  • 钱在换赛道:办公楼空置创新高,数据中心融资与 CapEx 持续走强。投资者
  • 人也在换方式AI 先替代离岸/外包岗位,短期直接裁员不多,但长期替代风险更大。投资者
  • 交叉口的机会:抓住“算力—电力—冷却—光模块—软件自动化”链条;同时给自己的岗位做“AI 增强”。

01|图说趋势:从办公室到数据中心

Section titled “01|图说趋势:从办公室到数据中心”
  • 办公楼市场:疫情后“回不去”,美国办公空置率 Q2 2025 约 20.6%,连创新高;即便核心楼宇有韧性,非核心去化仍承压。投资者
  • 数据中心:超大规模云厂商 AI 基建拉动2025 年 Q1 数据中心 CapEx 同比+53%;多家研究预期 2025 年全年仍高增。投资者
  • 资金面:2025 年约 $1700 亿数据中心资产需融资/再融资,开发融资成为投资人切入口。投资者
  • 于是就有了开头那张图:数据中心建设支出将在“数月内”超越办公楼。投资者

要点:资本遵循回报率。写字楼=需求不确定+折旧慢;数据中心=AI 算力刚需+现金流长。


02|AI 在替代谁:先外包,后白领

Section titled “02|AI 在替代谁:先外包,后白领”
  • MIT《2025 商业 AI 状况》:当下 AI 主要替代离岸/外包工作,不是大规模解雇本土员工;但长期可替代比例或达 ~27%。投资者
  • 产业节奏:过去几轮衰退期,企业会借机上马自动化,压降长期用工需求。这一逻辑在 AI 时代仍成立。投资者
  • 真实案例:ServiceNow 用 AI 收缩招聘,预计 2025 年省 $1 亿人力成本,被直接写进对外沟通。投资者

翻译成人话:AI 先把“可流程化、标准化、可远程”的工作外包掉;下一步才是对内部白领的“岗位重组”。


03|为什么是现在:GPU + 电力 + 冷却,带来“物理护城河”

Section titled “03|为什么是现在:GPU + 电力 + 冷却,带来“物理护城河””
  • 算力侧:AI 模型更大,GPU 集群成了新厂房,带动机电、配电、光模块、液冷、储能等全链条投资。投资者
  • 供电侧:高功耗把选址、并网、能源结构推到台前;具备充足电力与审批能力的园区更稀缺。投资者
  • 资产属性:相比写字楼,数据中心合同更长、黏性更强、技术升级更快——**“重资产 + 长合同 + 技术节拍”**的三重溢价开始体现。投资者

04|中国投资者视角:抓主线,管住风险

Section titled “04|中国投资者视角:抓主线,管住风险”

机会雷达

  • 电力与配电:高压配电、UPS、储能、变压器产业链。
  • 热管理:液冷设备、冷却塔、热交换器、密封材料。
  • 光互连:高速光模块、硅光、线缆系统。
  • 软件自动化:AIOps、资源调度、能耗优化、FinOps。
  • 地产/园区:合规拿地、能评/环评、并网资质强的“电力型园区”。

风险清单

  • 电价与能耗指标波动;
  • 供电瓶颈/并网排队拉长建设周期;
  • GPU 供给与价格周期
  • 融资成本与退出通道;
  • 政策对能耗/选址的约束。 (以上为投资逻辑建议,非个股推荐;请结合自身研究与风险承受能力。)

05|白领该怎么自救:把自己“升级为平台”

Section titled “05|白领该怎么自救:把自己“升级为平台””
  • 把岗位拆成流程:把可标准化的 30% 交给 AI/Agent,自己做“流程所有者”。
  • 学会“模型+工具链”编排:会用 RAG、自动化脚本、流程机器人,比会“提问”更稀缺。
  • 把业务经验结构化:把隐性知识写成 SOP/提示词/数据字典,让 AI 能复用,你才有“乘数效应”。
  • 对齐公司收益:像 ServiceNow 案例那样,用节省的人时与现金流说话。投资者

办公室投资走低数据中心投资走高,AI 的就业冲击先外包、后白领。 问自己三件事: 1)我的工作,有多少能被流程化? 2)我能否把 AI 变成的杠杆,而不是替身? 3)我所在团队,能否把算力热转成利润热

你怎么看?你现在的岗位,有哪些流程最适合交给 AI?

Excel COPILOT 函数把 AI 塞进单元格

Excel 在格子里总结、分类、写文案、出表格。数据一改,结果自动跟着变。


我们一直在等的事发生了。 Excel 把 Copilot 做成了一个原生函数:=COPILOT()。 不用脚本,不用外挂。像用 IFLAMBDA 一样写在单元格里,数据变更自动重算。这意味着,AI 终于融进了 Excel 的计算引擎。


  • 原生函数:在单元格里输入 =COPILOT(prompt, [context]),用自然语言+引用区域,直接拿到 AI 结果。可与 IFSWITCHLAMBDA 等无缝组合。
  • 自动刷新:数据一更新,结果自动跟。不需要手动重跑脚本或插件。
  • 使用门槛低:会写公式就会用 AI;不会写也能靠提示词搞定。


=COPILOT(prompt_part1, [context1], [prompt_part2], [context2], …)
  • prompt_part:告诉它要干嘛,比如“总结这些评论”“给出 5 条 SEO 关键词”。
  • context:引用你的数据范围,比如 D4:D18示例
=COPILOT("Classify this feedback", D4:D18)

这行会按情感或类别自动给 D4:D18 的文本打标签。


  • 从产品描述生成卖点、标题、SEO 关键词
  • 在表格里多版本改写(正式、口语、幽默)。

直接把结果溢出到行列,马上可筛选/去重。

  • 把长文本或多列指标,提炼成一段易懂叙述
  • 给复杂计算加**“人话解释”**,做成报告注释。
  • 情感分析主题聚类意图识别,都在单元格实现。
  • 不用导出到外部 NLP 工具,Excel 内闭环。
  • 批量构造测试样本行业案例清单项目大纲
  • 结果以多行多列形式回填网格。

=LET(r, D4:D100,
COPILOT("为每条反馈打情感标签,只输出 Positive/Negative/Neutral。按行返回。", r))
=LET(txt, TEXTJOIN(" ", TRUE, B2:B50),
COPILOT("将以下文本总结为3句话,保留关键数据点:", txt))
=LET(desc, A2,
COPILOT("基于以下描述生成5条SEO关键词,英文,逗号分隔:", desc))
=LET(tbl, A2:D30,
COPILOT("从以下表提取出 {客户,问题,优先级} 三列,整理为表格:", tbl))
=IFERROR(
COPILOT("把这列品类映射为标准类目{数码,家居,服饰,美妆,其他}之一,只输出类目:", F2:F200),
"未识别")
=LAMBDA(_t, COPILOT("重写为更口语、更简短的标题:", _t))(B2)

提示词要具体,限定范围、输出格式与顺序;动作词用“总结/分类/排序”。


组合拳:把 AI 结果塞进你的模型

Section titled “组合拳:把 AI 结果塞进你的模型”
  • 和 IF/SWITCH:按阈值或角色切换提示词,异常用 IFERROR 兜底。
  • 和 LAMBDA:把常用提示词封装成可复用函数。
  • 和 WRAPROWS/TOCOL:把自由文本规整成可透视的表。

  • 调用频率10 分钟 100 次、1 小时 300 次。建议用数组减少并发调用次数。微软后续会提高配额。
  • 无联网/内网直连无法直接访问网页或企业文档。要先把数据导入工作簿。
  • 日期输出:目前日期以文本返回,不是 Excel 日期序列。
  • 适用性:不适合让 LLM 做简单算术这类已有函数能完美搞定的任务;微软也在探索增加使用引导

  • 通过 =COPILOT() 发送的数据不会用于训练底层模型,仅用于生成你的结果。
  • 微软官方文档也明确:Microsoft 365 商业数据不用于训练基础模型;数据在静态时加密、受组织边界与合规约束。

  • 现已推送Beta Channel 且拥有 Microsoft 365 Copilot 许可证的用户。

    • Windows:Excel 版本 2509(Build 19212.20000)或更高
    • Mac:Excel 16.101(Build 25081334)或更高
  • Excel 网页版:将通过 Frontier 计划陆续开放。

  • 版本号参考:Office Beta Channel 近期版本节奏见官方发布页。


运营部

“请把 D4:D200 的用户评论按{支付、物流、质量、客服、功能建议、其他}分类,并附一句理由。”

=COPILOT("将以下评论分类到{支付,物流,质量,客服,功能建议,其他}之一,并给出不超过10字的理由。按行输出两列:类别|理由。", D4:D200)

产品经理

“基于 B 列的痛点,生成 10 条功能点子,按影响力从高到低。”

=COPILOT("根据这些用户痛点生成10条功能建议,按影响力排序,输出表头{建议,影响力(1-5),说明}:", B2:B500)

财务分析

“把 A2:D100 的预算 vs 实际做成 3 句管理层摘要,强调超支项与原因假设。”

=COPILOT("基于下表生成3句管理摘要,突出超支项及可能原因,不要重复数字。", A2:D100)

客服质检

“从 F 列工单里抽出关键信息:客户名、问题、紧急度、是否需要升级。”

=COPILOT("抽取{客户,问题,紧急度(高/中/低),是否升级(是/否)}四列,整理成表:", F2:F300)

  • 明确输出结构:要求“只输出表格/只输出这几列/每行一条”。
  • 给示例:先给 1—2 行示范格式,再让它“继续按此格式完成”。
  • 用数组:一次传更大范围,既省配额,也让结果成批溢出
  • 人工复核:关键场景一定要二次校验

=COPILOT() = “可重算的 AI 模板”。 把灵感、分类、摘要和清单,收口到一个公式里,让数据驱动 + AI 产出闭环。 对很多人来说,这比“对话面板”更稳定、更可控。

DeepAgents 开箱即用的股票研究 AI Agent

这是一个基于 LangChain DeepAgents 的开源“深层代理”示例,能把基本面 + 技术面 + 风险评估打包成一份像样的研报,还自带 Gradio 网页界面,落地非常快。


做一份像样的个股研究,正常要扒财报、跑技术指标、看行业新闻,再写结论和目标价。 deepagents 这个开源仓库,直接把这些流程装进了一个“深层代理(Deep Agent)”里,一条指令出一份报告,非常适合个人研究与团队快速验证。

截至今天,该仓库约 300⭐ / 53 forks,最近一周仍在更新,热度不错。


它不是普通 ChatBot,而是“深层代理”:有规划、有子代理、会用工具、有虚拟文件系统。

  • 多视角分析:基本面、技术面、风险并行输出。
  • 专职子代理:不同子代理各管一摊,结果更稳。
  • 真数据接入:yfinance 拉行情与财务,技术指标同步。
  • 网页端一键用:Gradio 界面,团队演示很方便。
  • 结构化报告:含结论、目标价与风险等级。

这些特性来自 LangChain 官方提出的 Deep Agents 思路: 先规划,再分工执行,再循环质检与补充,避免“浅层代理”只会顺嘴调用工具。核心组件包含:规划工具、子代理编排、虚拟文件系统与系统提示模板


[Gradio UI]
[Master DeepAgent Orchestrator]
├─ Planning Tool | Virtual File System | System Prompt
├─ Sub-Agents: Fundamental / Technical / Risk
└─ Financial Tools: Stock Price / Financials / Indicators
[Data: Yahoo Finance / 实时API / 市场数据]

关键词:主代理 规划 + 多个 专业子代理 协作 + 工具调用(价格/财务/指标)+ 可视化前端”。这套模式正是 DeepAgents 的推荐范式。


实战:5 分钟本地跑起来(含 Ollama)

Section titled “实战:5 分钟本地跑起来(含 Ollama)”

环境准备

  • Python 3.8+
  • Ollama(本地 LLM 托管)

安装步骤

Terminal window
# 1) 克仓
git clone https://github.com/sagar-n/deepagents
cd deepagents
# 2) 依赖
# 官方 README 推荐把依赖写进 requirements.txt:
# deepagents
# langchain-ollama
# langchain-core
# yfinance
# gradio
# pandas
# numpy
pip install -r requirements.txt
# 3) 安装 & 拉取本地模型(示例)
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull gpt-oss # 也可换成你更熟的本地模型,如 llama3、qwen 等
# 4) 运行
python research_agent.py
# 5) 打开浏览器
# http://localhost:7860

上述命令与依赖项均来自仓库 README 的“Quick Start / Dependencies”说明。


打开 **http://localhost:7860**,输入: “请对 AAPL 做 6 个月投资周期的综合分析,包含财务、技术面、风险与目标价。” 系统会输出 执行摘要 / 估值指标 / 技术趋势 / 支撑阻力 / 风险点 / 建议与目标价 等模块。

query = """
Conduct a comprehensive analysis of Apple Inc. (AAPL) for a 6-month horizon.
Include: financials, technical signals, risk assessment, price targets.
"""

仓库示例展示了这类结构化自然语言查询的写法,适合二次封装。


进阶:自定义模型、工具与子代理

Section titled “进阶:自定义模型、工具与子代理”
from langchain_ollama import ChatOllama
ollama_model = ChatOllama(
model="your-preferred-model", # e.g., "llama2", "codellama", "qwen"
temperature=0
)

温度 0 更稳健,适合研究与合规输出。

from langchain.tools import tool
@tool
def custom_analysis_tool(symbol: str) -> str:
"""Do your custom factor/alpha logic here."""
return "alpha signals for " + symbol
tools = [
get_stock_price,
get_financial_statements,
get_technical_indicators,
custom_analysis_tool
]

工具即能力。把你已有的回测、风控、行业库都包成 Tool,代理自然会学会调用。

esg_analyst = {
"name": "esg-analyst",
"description": "Evaluates Environmental, Social, and Governance factors",
"prompt": "You are an ESG specialist..."
}
subagents = [fundamental_analyst, technical_analyst, risk_analyst, esg_analyst]

多子代理并行 是 DeepAgents 的核心玩法之一。


谁该用?

  • 量化/投研团队:想要 快速形成初版研报 的研究助理。
  • 创业者/独立开发者:需要 本地可控 的投研 Demo。
  • 产品经理/教学展示:Gradio 展示层方便路演与内训。

边界与注意

  • yfinance 等免费数据源延迟与口径有限,做实盘需替换为更可靠的数据供应商。
  • 非投资建议,请务必自担风控。仓库也在 README 中明确了免责声明。

延伸阅读(了解“深层代理”到底强在哪)

Section titled “延伸阅读(了解“深层代理”到底强在哪)”
  • Deep Agents 概览:为何“浅层循环调用工具”不够用,深层代理如何引入 规划 / 记忆 / 多代理协作 / VFS 来提升可靠性与纵深。
  • 官方文档:Python / JS 两端提供 Deep Agents 组件与用法示例,便于集成到现有应用。
  • LangChain Agents / LangGraph:如果你要把 DeepAgents 上生产,配合 LangGraph 做可控编排与人类介入更稳。

deepagents 把“做研报”这件事拆成了可复用的代理流水线: 有规划、有分工、有工具、有前端。本地跑一遍,你就能把自己的私有数据、风控逻辑、行业因子拼进去,几天内做出能用的投研助手

你觉得这套 DeepAgents 思路,是不是也能迁移到你们的风控、行业周报或投顾 SOP? 欢迎在评论区聊聊你要落地的场景。

AI 批量生成测评集、练习题库:Synthetic Questions Generation 上手与实战

把一堆文章、手册或数据集,自动“榨”出多风格、高质量的问题,喂给你的 RAG、测评集、练习题库,省时又省钱。工具仓库:mkurman/synthetic-questions-generation。


我们做 RAG、做评测、做题库,最难的是稳定产出大量、够多样、像人写的“好问题”。 这款开源小工具,把多家模型接在一条命令里跑:OpenAI 兼容、Anthropic、Gemini、OpenRouter、Groq、Together、Cerebras、Qwen/DeepInfra、Kimi、Z.ai、Ollama、Chutes、Hugging Face…想换就换。还自带 35+ 问题写作风格,每条随机挑一种,让语料“活”起来。


  • 多模型即插即用:用 --provider + --model 切换供应商/模型,免改代码。
  • 数据源随意:可直接喂 Hugging Face 数据集名、或本地 .jsonl/.json/.parquet 文件;默认读 text 字段。
  • 风格库自带 35+:学术、创意、幽默、实践、批判、哲学、简洁、全面……也可自定义或关闭风格指令。
  • 输出结构化:每题一行 JSONL,带上输入片段、问题序号、生成设置、时间戳,方便评测与回溯。
  • 并发与限速--num-workers--sleep-between-* 控制速率,云上不容易被风控。
  • 示例齐全example.sh、Quickstart、Ollama 本地推理示例一应俱全。
  • 宽松许可:Apache-2.0,商用友好。

Terminal window
python3 -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt

依赖:aiohttpdatasetstqdm

环境变量遵循 <PROVIDER>_API_KEY 规则,例如:

Terminal window
export OPENROUTER_API_KEY=your_api_key_here

支持 OpenAI、Anthropic、OpenRouter、Groq、Together、Cerebras、Qwen、Qwen-DeepInfra、Kimi、Z.ai、Featherless、Chutes、HuggingFace、Gemini; Ollama 本地无需 Key,默认 http://localhost:11434

一条命令跑起来(远程数据集)

Section titled “一条命令跑起来(远程数据集)”
Terminal window
python3 src/main.py mkurman/hindawi-journals-2007-2023 \
--provider openrouter \
--model qwen/qwen3-235b-a22b-2507 \
--output-dir ./data/questions_openrouter \
--start-index 0 --end-index 10 \
--num-questions 5 --text-column text --verbose

这里示例用的是公开的 Hindawi 论文数据集。

本地文件也行(离线/内网更友好)

Section titled “本地文件也行(离线/内网更友好)”
Terminal window
# data/articles.jsonl 每行一个 {"text": "..."}
python3 src/main.py ./data/articles.jsonl \
--provider ollama \
--model hf.co/lmstudio-community/Qwen3-4B-Instruct-2507-GGUF:Q4_K_M \
--output-dir ./data/questions_ollama \
--num-questions 3

把产品文档/FAQ 切成段落,自动生成多风格问题,用于评测召回与答案正确率;每次改召回或重训练后复跑一遍,回归更省心。 实操:--style "analytical and critical thinking,practical and application-focused",输出 JSONL 直接喂到你的评测脚本。行业最佳实践也在强调用合成问答/问题构建评测数据。

教育、企业培训都需要持续出题。 语气控制:面向成人用“formal and academic”,面向新手用“simple and straightforward”,面向公开课用“funny and humorous”。

把工单、SOP、知识库喂进去,自动生成“用户会问啥”。上线前压测问法覆盖度,上线后以题促文补齐文档盲点。

4)行业知识对齐(医疗/金融/科研)

Section titled “4)行业知识对齐(医疗/金融/科研)”

对公开论文、指南生成问题,用于检索触发词扩展面向合规的问法规范。 注:对医疗/金融内容务必加上人工复核与合规审阅环节。

用 CI 定时任务(如 GitHub Actions、CircleCI)每天抓新文本、生成问题、落库,形成“每日 10 问”。


  • 并发--num-workers(配合 --sleep-between-requests/items 别把服务打爆)
  • 采样--shuffle 打乱;--start-index/--end-index 切片大数据集
  • 质控:先跑 --no-style 得到中性问题,再用 --styles-file 扩多样性
  • 字段--text-column 指定文本键;--max-items 限制条数
  • 成本:能本地跑就用 Ollama;云上优先选性价比模型。

示例样式文件 styles_sample.txt(每行一种):

practical and application-focused
casual and conversational
thought-provoking and philosophical
concise and direct
funny and humorous

调用:

Terminal window
python3 src/main.py ./data/articles.jsonl \
--provider openrouter --model qwen/qwen3-235b-a22b-2507 \
--output-dir ./data/out --num-questions 5 \
--styles-file ./styles_sample.txt

为什么这类工具值得用?(外部视角)

Section titled “为什么这类工具值得用?(外部视角)”
  • 大厂与研究社群越来越多用合成数据/问题来补齐长尾、低资源任务,提升微调与评测质量。
  • 云厂商实践表明:对 RAG、问答系统,合成样本能更快形成高覆盖的测评集,并用于持续对齐。

  • 事实性:生成的是“问题”,不是事实;要配套人工抽检去重/去偏
  • 样式泄漏:风格指令可能诱导模型过拟合某表达;建议混合多风格并做 A/B 评测。
  • 版权/合规:输入文本需确认许可,敏感行业要额外审阅。

这就是一个小而美的“问题发动机”。 你给文本,它给你可控、可批量、可追溯的问题集。 无论做 RAG、评测、教学、FAQ,立刻能落地。用起来,你会发现你真正缺的是文本源,不是“问题”。

你会把它用在哪个场景?评论区聊聊。

Claude Code、Cursor、GitHub Copilot 会员费太贵?或许要学抖音了

当前市面上几款炙手可热的 AI 编程辅助工具,如 GitHub CopilotCursorClaude Code,其商业模式主要都走会员订阅路线,每月收费为主。而且这些工具的用户群也在快速增长:

  • GitHub Copilot(微软 GitHub 出品):个人版订阅费约 10 美元/月,提供代码自动完成和聊天解答等功能。自 2021 年推出以来人气飙升,到 2025 年已累计超过 2000 万 用户试用过 Copilot(all-time users)。其中付费用户超过 180 万(截至 2024 年初)。Copilot 在企业界也颇受欢迎——微软 CEO 纳德拉曾透露 90% 的财富100强企业都在使用 Copilot。Copilot 实行订阅收费,微软还将其捆绑进更昂贵的企业套餐。凭借庞大开发者生态,Copilot 的营收增长迅猛,2024 年时纳德拉称其“业务规模已超过微软2018年收购 GitHub 时整个 GitHub 的规模”。

  • Cursor(Anysphere 公司开发):一款基于 VS Code 打造的 AI 代码编辑器,采用基础免费+高级订阅的模式。个人有免费 Hobby 版(带两周Pro试用)和付费 Pro 版($20/月);深度用户还有 $200/月的 Ultra 档,包含更高调用上限和优先新功能。这种定价相当亲民,因此 Cursor 用户量激增。2025 年初曾传出 Cursor 日活跃用户已超 百万,当时年化经常性收入约 $2 亿;短短数月后其 ARR(年度经常性收入)攀升至 5 亿美元——增长速度惊人,可见有大量用户愿意为之付费。不过 Cursor 团队也面临使用成本随用户增长而剧增的问题。据报道,许多 AI 编程公司的毛利率几乎为零甚至为负,因为模型调用成本太高,“所有代码生成产品利润率要么是0,要么为负”。尽管 Cursor 母公司 Anysphere 在 2024 年 6 月已达到 $5 亿 ARR,成为 SaaS 史上最快破亿 ARR 的公司之一,但高昂的算力支出让利润承压,不得不调整定价策略,把超额使用的费用转嫁部分给重度用户。

  • Claude Code(Anthropic 公司推出):Anthropic 将自家高级大模型 Claude 集成进终端和 IDE 中,形成的 AI 编程助手。Claude Code 并未单独收费,而是包含在 Claude.ai 的订阅套餐里:个人 Pro 计划每月 $20(年付折合约 $17/月),订阅即可使用 Claude Code。更高阶还有 Max 计划 $100/月(5倍用量)或 $200/月(20倍用量),提供更大的上下文窗口和更强模型(Claude Opus 4.1)。换言之,Claude Code 走的是“订阅会员送工具”思路,用高价值的编码助手来吸引开发者订阅其 AI 服务。Anthropic 也提供按 API 用量计费的企业方案。Claude Code 主打深度代码理解和跨文件编辑,在专业开发团队中反响不错。不过相较 Copilot 和 Cursor,Claude Code 用户规模数据公开较少,可能因为其主要面向付费用户群体,采用精细化运营而非广撒网策略。

总的来看,这几款AI 编程助手基本都采用订阅盈利,少则每月十几刀,多则上百刀,瞄准的是程序员愿意为效率买单的市场。而免费用户要么无法使用(Copilot 已取消免费试用),要么受限较多(Cursor 免费版有调用次数限制)。这样的商业模式虽然直接,但也意味着不付费就无缘完整功能。有没有可能换个思路,用互联网常见的广告/娱乐变现手段,来为这些 AI 工具开拓新的收益来源呢?在讨论这个创意前,我们先看看短视频、直播、游戏等领域是如何“吸金”的。

短视频、直播、广告:互联网吸金的黄金套路

Section titled “短视频、直播、广告:互联网吸金的黄金套路”

在互联网行业,用户注意力就是硬通货。短视频平台、在线直播、广告分发和手游等,都是通过长时间牢牢抓住用户视线来实现商业价值的典型代表:

  • 短视频(抖音/Douyin、TikTok):通过精准算法推荐,让用户刷视频刷到停不下来,从而穿插信息流广告、高效变现。以抖音为例,截止 2024 年其月活用户已达 10 亿(仅中国区)。用户平均每天花 110 分钟 在抖音上,几乎相当于刷完一部电影!用户停留时间长,广告就有充足展示机会。抖音的广告收入水涨船高,2024 年预计将达到 300 亿美元(含开屏、信息流、贴纸等各种形式)。此外,抖音融合了直播带货、电商导流等模式,拓宽了变现场景——据统计,有超过 40% 的日活用户会观看或参与抖音上的直播带货。可以说短视频平台通过算法+内容极大提升了用户黏性,用海量用户时长去换取高额广告营收。

  • 视频网站(YouTube):作为传统长视频平台,YouTube 的主要收入也来自广告插播和创作者分成。YouTube 拥有全球 24.9 亿月活跃用户,2023 年其广告收入高达 310 亿美元。平均每位用户每天花将近 49 分钟 看 YouTube。平台通过前贴片、中插广告和推荐页广告等形式获利,再与内容创作者分成。这种模式验证了“只要用户看得久,就不怕广告卖不出”的逻辑。近年来 YouTube 也引入 Shorts 短视频和直播功能,进一步增加用户停留时间,并丰富广告库存。可以说,视频平台用海量内容留住用户,再通过广告变现,是成熟且高效的商业逻辑

  • 直播平台(Twitch 等):直播通过实时互动激发用户热情,除了广告外,还促成用户打赏和订阅。Amazon 旗下游戏直播平台 Twitch 2024 年用户总观看时长达 208 亿小时之巨,全球月活用户约 2.4 亿,日活约 3500 万。Twitch 的收入一半来自广告(主播直播间插播广告,平台与主播分成),一半来自用户订阅和礼物打赏。2024 年 Twitch 带来约 18 亿美元营收。虽然相较短视频用户基数小,但铁杆观众愿意花钱支持喜欢的主播,ARPU(每用户收入)更高。直播变现的核心在于强社群氛围:实时弹幕、粉丝与主播的情感连接,都提高了用户付费意愿。这种模式证明,即使用户规模不像短视频那么大众化,但只要粘性强、互动深,也能产生可观收入。

  • 手游与互动游戏:很多游戏尤其是免费手游,通过内购和广告双管齐下变现。一方面,少数付费玩家(“氪金大佬”)贡献内购流水,另一方面,大量非付费玩家通过观看广告来换取游戏内奖励,成为广告变现对象。比如一些休闲手游会设计“看30秒广告领取金币”的机制,或是在关卡加载时插入广告。这种**“用等待时间换收益”的套路很常见。据统计,2024 年全球手游市场收入超过 1110 亿美元,其中广告收入占相当比例。谷歌甚至推出了App Open Ads** 专门用于在 App 加载画面展示广告,让开发者利用用户等待的几秒钟赚钱。游戏行业可谓深谙此道:把碎片时间变现,不浪费任何一次用户停留在屏幕前的机会。

总结来看,无论短视频也好、直播也好,背后商业逻辑都是利用优秀的内容或互动体验,把用户尽可能长地留在平台上,然后通过广告或增值服务把用户注意力变现。这种逻辑能否移植到 AI 编程助手上呢?也就是说,我们能否设想这样一种模式:程序员在使用 AI 写代码的空档,也能刷到定制的短视频或互动内容,从而用娱乐广告收入替代部分会员费?听上去有点天马行空,但不妨大胆脑洞一下。

AI 写代码时也能刷视频?可行性分析

Section titled “AI 写代码时也能刷视频?可行性分析”

试想一个典型场景:程序员小张在 VS Code 里使用 AI 助手生成代码,有时需要等待几秒钟模型出结果。这些几秒钟的空档,现在往往就是盯着屏幕上“Thinking…”的光标发呆。如果能在这空隙给小张一点有趣的内容看看,岂不是把碎片时间利用起来了?

从技术上讲,这并非不可行。AI 编程工具通常以插件或独立应用形式存在,例如 Copilot 是 IDE 插件,Cursor 是基于 VS Code 的独立编辑器,Claude Code 可以在终端/IDE里运行。这些工具界面完全可以预留一个小窗,在 AI 处理请求时推送内容。类似网页加载时弹出的 tips,或者手游加载画面的插图,只不过这里可以换成个性化推送的视频/信息

关键在于,推送什么内容才能既吸引人又不干扰工作?借鉴短视频和内容推荐的经验,理想的做法是精准匹配用户兴趣。AI 助手本身对用户代码和上下文有一定了解,如果经过用户授权,也许可以基于编码主题猜测用户可能感兴趣的信息流。例如:

  • 当用户在写 Python 代码跑单元测试时,小窗里推送一个 “3 个提高测试效率的小技巧” 的短视频,30 秒看完,刚好吻合用户当前任务。
  • 用户调试报错的空闲,推送一条 程序员趣味梗 短视频或搞笑 Meme 动图,让用户会心一笑缓解挫折感。
  • 或者根据用户平时的偏好(比如他经常看前端技术文章),推荐相关技术 UP 主的 直播切片 或新品发布会片段,让用户获取业界动态。

当然,实现这种智能推荐需要构建内容推荐算法。可以参考抖音那样的多层次机器学习模型,根据用户的行为快速迭代推荐。AI 编程助手本身就可以调用大模型来理解代码语境,也可以结合用户设定的兴趣标签来筛选内容。比如让用户在设置里勾选喜欢的内容类型:“技术干货 / 科技新闻 / 搞笑段子 / 游戏直播 / …”,然后助手就按这些喜好来选取推送。

更重要的是把控频率和形式。程序员毕竟需要专注编程,不能让弹出的内容喧宾夺主、喧嚣吵闹。理想的设计是 嵌入式 的:比如编辑器侧边栏出现一个静音播放的小视频窗口,或输出区显示一条资讯流卡片。在 AI 响应生成后,这内容可以自动收起,不打断用户思路。谷歌的 App Open Ads 强调要选择自然的时机(如加载画面)展示广告,避免干扰核心体验。类比过来,AI 助手推送内容也应仅限模型运算等待或代码编译运行等“自然暂停”时,并且允许用户一键关闭。

至于盈利模式,这些推送内容完全可以包含广告元素。例如推送的短视频里有厂商推广的新开发者工具(以内容营销的方式呈现),或者在直播嵌入商品链接(用户也许正巧需要买本技术书/报个课)。Bing Chat 已经开始尝试在聊天答案中嵌入广告链接,微软表示会将广告收入与内容提供方分成。这说明将广告融入 AI 回答/界面是可行的商业尝试。在编码助手场景中,广告可以更加隐性和契合:比如当用户用免费版 AI 助手写前端代码,小窗里推荐一个“更高效的前端调试工具”(实际上是广告合作的推广),用户感兴趣就点击了解,不感兴趣就略过,体验上和刷抖音看到广告差不多。

这样的“AI 编程 + 娱乐广告”模式目前来看还没有直接的成熟案例,但相关的探索倒是有迹可循:

  • 开发者社区的广告尝试:传统编程问答网站如 Stack Overflow 早年就靠页面广告和企业招聘广告盈利。尽管那不是 AI 工具,但说明开发者并非完全抗拒看到广告,前提是广告内容相关度高、不影响获取答案。同理,如果 AI 助手推送的是开发者相关的资讯或产品(比如云服务促销、技术大会直播预告),用户可能会乐于接受,甚至觉得顺带涨姿势。

  • AI 聊天与广告结合:微软新版必应(Bing Chat)已在 GPT-4 驱动的聊天答案里插入赞助链接,有时用户提出购物类询问,回答会附上商品广告卡片。这等于把搜索广告直接嵌入对话。虽然代码助手场景和搜索不同,但 Bing 的实践证明大模型回答和商业广告并行并非禁区。关键是透明标注和相关性,让用户清楚哪些是广告,并确保广告确实和他的需求契合。

  • AI 工具的扩展窗口:一些编程工具其实已经有资讯推送的苗头。例如 JetBrains IDE 每次启动时会弹出“Tip of the Day”(每日技巧),VS Code 欢迎页也常有推荐文章或更新公告。这些都是在工具界面内嵌信息内容的案例,只不过目前还没有商业化。如果把这些窗口利用起来做成可定制的内容流,从技术上是顺理成章的。

  • 免费模式与用户规模:目前市面上也有少数 AI 编程工具走免费路线吸引用户,再谋求别的变现。比如开源的 Codeium 对个人免费,用数据提升模型、后续针对企业收费。但还没有出现“免费+广告”的明确案例。一方面,开发者用户量相对大众应用小很多,靠广告变现能否覆盖高昂算力成本是疑问。另一方面,程序员用户对产品纯净度要求更高一些,贸然加广告可能引发反感。所以大部分创业公司还是选择直接收会员费或寻找企业买单,而没有优先考虑广告模式。

  • 国内动向:值得一提的是,国内科技巨头也在推进 AI 编码助手,如阿里的“通义灵码”等。据阿里2025年财报披露,通义灵码(代码助手)已经实现了强劲的收入增长。不过它主要面向企业客户,是 B 端付费模式的成功例子,和我们讨论的C端娱乐广告思路有所不同。腾讯则表示 AI 技术已为其效果广告和游戏业务带来贡献,间接证明 AI 和广告的结合潜力巨大。

总的来看,目前还没有直接把编程助手和娱乐内容融合变现的产品,但从搜索聊天到应用加载广告,再到各种免费增值模式的成功,可以找到许多可以借鉴的要素。如果哪天有团队敢于打破常规,推出这样一款“既能写代码又能刷视频”的跨界产品,倒真有可能开辟出一片新蓝海。

展望未来:AI 编程助手的娱乐化之路

Section titled “展望未来:AI 编程助手的娱乐化之路”

设想一下未来的开发场景:你坐在电脑前写代码,AI 小助手在一旁帮助调试。编译的空当,它贴心地推送一段 “今日编程笑话” 短视频给你解闷,或者弹出一个 AR 实景黑客小游戏 供你玩几秒钟放松大脑。这听起来也许有些离谱,但并非不可能实现。随着新一代开发者逐渐习惯多任务并行和碎片化信息流,这种工作与娱乐交织的模式可能比我们想象中更受欢迎。

从商业角度看,“AI 编程+娱乐广告”模式有望带来多赢

  • 对开发者个人而言,入门门槛降低——也许不再需要付昂贵订阅费,就能免费使用强大的代码 AI 工具,只需忍受一些恰到好处的内容推送作为交换。同样的逻辑已经在移动应用中被用户所接受(比如很多 App 提供“看广告解锁高级功能”选项)。

  • 对平台厂商而言,可以拓宽盈利来源,分摊算力成本。当下 AI 编程助手盈利难,很大程度在于每多服务一个用户就多一份算力支出,不像传统软件那样扩张不增加边际成本。引入广告变现后,哪怕免费用户本身不付费,也能通过其观看广告为平台带来收入,从而补贴模型调用成本,缓解“用户越多亏越多”的窘境。这有望使商业模式更加可持续。

  • 对广告主来说,则多了一个触达程序员群体的新渠道。程序员作为高消费力、高决策影响力的人群,一直是很多B2B和技术产品广告主想渗透但不易触达的圈层。如果有编程场景内的原生广告位,可以推广云服务、开发工具、IT图书课程等垂直产品,广告转化率可能比在抖音上乱投要高。尤其是结合AI对用户代码意图的理解,广告精准度会更上一层楼(当然前提是隐私许可和谨慎平衡,否则容易引发反感)。

当然,要走通这条路也面临不少挑战。首先,如何不影响用户体验是最大的考验。程序员需要长时间专注思考,频繁弹出娱乐内容会打断思路。如果内容质量不高或无关痛痒,用户宁可关掉助手也不愿被打扰。因此内容推荐必须足够个性化、有价值,最好还能起到提升工作灵感的作用(例如推荐相关技术解决方案的视频教程,比纯商业广告更容易被接受)。同时需要给用户完全的控制权,比如设置“专注模式”时不推送任何内容,或者允许付费关闭广告(类似很多应用的“移除广告专业版”)。

其次,规模效应也是问题。全球开发者数量虽多,但远不如娱乐应用用户基数广。要依靠广告盈利,每用户广告收入必须能覆盖模型推理成本,这要求在提升广告效果和降低算力开销上双管齐下。一种可能是引入游戏化元素刺激使用时长:例如做一些编码闯关小游戏,用户玩的过程中既训练模型又曝光更多广告,一举多得。但这些想法都有待实践验证其可行性。

最后,从趋势上看,AI 工具娱乐化、广告化确实是可以期待的方向之一。就像办公软件里加入游戏听上去匪夷所思,但 Microsoft Teams 里已经内置了休闲小游戏供同事会议间隙放松,证明传统生产力工具也在尝试引入娱乐元素。同理,未来的 AI 编程助手未必是冷冰冰的工具,也可能变得有趣、会卖萌,甚至自带“段子手”属性。当90后、00后成为开发主力,他们或许更乐见工作变得像刷微博一样“有梗”。一旦用户心态转变,商业模式的创新就有了土壤。

小结与脑洞:AI 编程助手从收费走向免费+广告,是一次有趣的跨界融合想象。它代表了一种未来可能性:工作和娱乐不再泾渭分明,而是通过AI的桥梁自然融合。也许再过几年,当你用 AI 写代码时,它会在你调试卡壳时给你放一段编程教学的直播回放,在你构建项目时让你玩个像素风的码农跳跃小游戏。那时的编程体验,既高效又不失乐趣, coding 不再枯燥,bug 也多了几分戏谑的调剂。

当然,这一切目前还只是大胆的畅想。但正是这些天马行空的创意,指引着可能的下一步方向。毕竟,在 AI 时代的世界里,想象力往往是最好的生产力。让我们拭目以待,也许下一个颠覆行业的商业模式,就将在这样的脑洞中诞生。

用塞尔达音效,让 Claude Code 叫你回来

Vibe Coding 最大痛点:等 AI 跑完。 开个长任务,去忙别的,一回头早过点儿了。声音提醒就成了刚需。

今天这款小玩具把效率+乐趣都拉满:zelda-claude-code。它把塞尔达的提示音塞进 Claude Code,任务完成、连胜、成就解锁,都有「叮」的一下,很带感。


zelda-claude-code 是一个给 Claude Code 加音效与成就系统的 npm 包:

  • 成功/失败、连击、成就、会话开始/结束……都有不同音效;
  • 内置 统计面板:成功率、连胜、最强连击、最常用工具;
  • 直接在 Claude Code 里用 @zelda 系列命令调音量、开关提示、看数据。

此外,Claude Code 本身支持 Hook/通知,可以在“回复结束/需要你操作/工具完成”等时机触发你自己的脚本,这也是这类音效插件能无缝工作的底层能力。


  • 开箱即响:一行安装,重启 Claude Code 即可生效。@zelda help 就能看到菜单。
  • 不打扰又不失陪:成功一声、出错一声,无需盯屏。忙别的也能被“叫回来”。(Claude Code 也支持终端响铃/通知通道,这是官方路径。)
  • 可玩性:连击(3/5/10/20/50…)、成就(完美零错等),把枯燥的等候变成“打怪”。
  • 跨平台:macOS / Linux / Windows / WSL 都支持,并给出各平台播放器检测/排错建议。
  • 隐私友好:数据本地存储(~/.zelda/),不出网

先确保已安装 Claude Code(Node.js 18+)→ 再装 Zelda 插件。

Terminal window
# 1) 安装 Claude Code(官方)
npm install -g @anthropic-ai/claude-code
# 2) 安装 Zelda 音效(社区)
npm install -g zelda-claude-code@latest
# 3) 重启 Claude Code(很重要)
exit
# 重新进入项目目录再运行
claude
# 4) 查看帮助
@zelda help

上述 Zelda 包来自 npm,文档/源码在 GitHub。

若你更喜欢“纯官方”做法,也可直接把通知通道切到终端响铃claude config set --global preferredNotifChannel terminal_bell(简单一声“叮”)。


  • 长回合/深度规划:比如大仓库重构、全链路 CI 调试,AI 一停就响,不再“守株待屏”。
  • 多任务并行:一边写评审,一边让 Claude Code 改代码;声音到→切回确认。
  • 团队直播/结对:连击与成就让协作更有气氛;失败音效能提醒“哪里刚炸过”。
  • 跨设备提醒:想把通知推到手机/手表?可以用社区脚本/自动化把 Claude 的提醒转发到 iPhone/Watch。

@zelda stats # 查看本次会话+历史数据
@zelda achievements # 查看成就进度
@zelda combo # 看当前连击
@zelda config volume 60 # 调整音量(0~100)
@zelda config sounds.combo false # 关连击音
@zelda config notifications.achievements true # 开成就弹窗

所有命令均在 Claude Code 里直接使用。


对比:三种“有声提醒”的打开方式

Section titled “对比:三种“有声提醒”的打开方式”
方式安装成本能力适合谁备注
终端响铃(官方通道)极低任务完成“叮”一下只要最简提醒preferredNotifChannel terminal_bell
claude-sounds 脚本通过 Hook 播放多种音效喜欢自己折腾Shell 脚本+Hook,简单好改。
zelda-claude-code音效+连击+成就+统计想兼顾效率与乐趣npm 一键装,命令化配置。

  • 自定义音色:放入 sounds/ 目录,命名 success.wav / error.wav / achievement.wav … 即可替换。

  • 声音放不出来?

    • @zelda config volume 100
    • macOS 检查 afplay,Linux 检查 aplay/paplay,Windows 用 PowerShell 播放器;
    • 重新运行 ./demo_sounds.sh 试音。
  • Hook/通知点更多玩法:Claude Code 官方支持 Notification/Stop/PostToolUse 等多种 Hook,能在“结束时”“工具完成后”“需要你确认时”触发逻辑(比如记录工时、发桌面通知、跑格式化)。


  • 这是 第三方社区包,注意版本与安全;遇到问题随时 exit 重启。
  • README 提醒:Zelda 为任天堂商标,请合法获取素材。
  • 不想高频打扰?把音量降到 30~50,只保留关键事件;或用官方响铃通道,最简不打扰。

有声提醒,省回头工;有趣反馈,稳心理流。 让 Claude Code 不只是更快,而是更「有感觉」。今天就装上试试,下一次它响的时候,你可能正好写完一段好代码。

你觉得这类“音效+成就”的工作化游戏化能不能提升专注?你会用吗?

生成式 AI 的胜利: 80/20 法则和 用“加法 + 除法”预测复杂世界

生成式 AI 的大胜利,底层就是两件小事:加法和除法。 再配上一个“江湖规矩”:80/20


我们常把 AI 想得很玄。 可把一台主流生成模型拆开看,最常见的动作其实很“土”:加权求和(加法)标准化(除法)残差相加(加法)。注意力就是加权求和,softmax 和归一化里有除法;层归一化要除以标准差;残差网络把输入直接相加给输出。这些“搬砖式”运算,居然拼出今天的神迹。

为什么这么朴素有效? 答案指向两个词:低维流形 + 80/20。现实世界看似高维混沌,可真实发生的模式常常挤在少数“主路”上;抓住这 20% 的主路,就能解释 80% 的现象。


注意力 = 加权求和 + 归一化 Transformer 里,注意力输出是对 V 的加权求和;权重由 softmax(QK^T / √d_k) 给出,里面还藏着一个除法(缩放)。这就是“看谁像我 → 给多少分 → 加起来”。

层归一化 = 减均值 + 除标准差 LayerNorm 先算均值和方差,再除以标准差,让特征分布稳定,训练更顺。

残差连接 = 直接相加 ResNet 的“捷径”把输入原样相加到输出,信息不丢,梯度好传,深网才堆得上去。

扩散模型 = 加噪 / 去噪的循环 训练时逐步加高斯噪声;生成时反向去噪,本质也是线性组合和归一化的套路。

朴素得离谱?对。 但当数据躺在低维主路上,这些线性/近线性的“加减乘除”就足够把主路勾出来。


二、世界为什么给“简单方法”面子:低维流形 + 80/20

Section titled “二、世界为什么给“简单方法”面子:低维流形 + 80/20”

流形假设说,自然数据虽然处在高维空间,有效样本集中在低维流形上。很多研究发现,深网里学到的表示,其内在维度远小于表面维度——模型其实在压缩世界。

这就把80/20引了进来: 当关键结构只占“少数维”,抓住 20% 关键特征,就能复现 80% 现象。这不是玄学,是幂律/帕累托型在自然与人类系统中的常客。

还有一条行业共识:神经网络的“尺度律”表明,只要堆模型、数 据、算力,损失会按幂律稳定下降。简单架构 + 大规模“加减乘除”,就能稳步吃掉更复杂的模式。

我们可以用一个可视化比喻来理解这一点:想象你站在一片巨大的草原(代表高维空间),理论上你可以朝任何方向走,但实际上绝大多数人都只走在几条清晰的小径上。每个人的脚步不是随机的,而是集体踩出了几条被自然选择出的路径。这些小径就是“自然偏好的流形”。现实世界中的天气变化、蛋白折叠、图像生成都类似——虽然可能性空间极大,但真实发生的情境都压缩在某些低维区域上。


三、一个硬核证据:AlphaFold 如何“采集流形”

Section titled “三、一个硬核证据:AlphaFold 如何“采集流形””

蛋白理论构象空间大到夸张,10^300 级别,暴力穷举根本不可能。可自然界却能在毫秒级折叠——说明真实折叠路径被压在一条低维主路上。AlphaFold 正是从海量序列与结构样本里,学到了这条主路,于是直接在“主路空间”定位最可能的结构。

升级的 AlphaFold 3 更是把扩散架构塞进来,靠“加噪/去噪”的可微流程,统一预测复合体、离子、小分子……还是那种简单运算的流水线,服务于低维结构

有人觉得这像“从万花筒图案反推几片塑料叶子和镜子”。 说白了,就是把复杂的表象压缩成少量稳定结构


四、工程落地:用 80/20 把生成式工作流做薄做厚

Section titled “四、工程落地:用 80/20 把生成式工作流做薄做厚”

1)数据侧:做“主路样本”优先级

  • 复盘 30 天真实任务,统计最高频的 Top 20% 场景/风格,只给它们做高质样本与模板。
  • 评测集也按帕累托做覆盖,“先把 80% 常态拉满,再逐步做长尾”。(配合帕累托图更直观)

2)提示词侧:把“加法/除法”具象化

  • 加法:提供明确的加权要素(目的、受众、风格、长度、禁词),每个要素配例子=给注意力喂“权重”。
  • 除法规范与约束就是“除法”——字数上限、结构模板、术语表、评分表,都是在“缩放/归一”模型输出。
  • 套路:少量高质量 few-shot > 大堆模糊案例(更像给模型一把“主路”锚点)。

3)检索/RAG:把库做“瘦身”

  • 只进库权重最高的 20% 文档(权威、最新、覆盖面大)。
  • 每次检索明确 top-k 小而准,并强制引用位置,减少“跑野路”。

4)评测与上线:两段式

  • 阶段 A:只打 80% 高频主路的可靠性(自动评分 + 少量人工复核)。
  • 阶段 B:再切长尾,按“影响 × 频率”排序迭代。

简单很强,但不是万能。

  • 换域/长尾:模型学到的是“这条主路”,越过分布(OOD)就会跪,需要新数据/新约束来重铺主路。蛋白也一样,某些类别或无序区域就难。
  • 幂律不是法律:80/20 是常见经验规律,不要机械套用。
  • “信息本体论”仍在争论:把物理看成“信息优先”的观点很有吸引力,但学界也有反驳声音,别当成定理。

如果你把生成式 AI 看成一支加法/除法的施工队,再配一张低维主路图,很多难题会突然变简单。 先压缩,再调度;先 20%,后 80%。 这就是今天的笨办法,也是最稳的聪明。

你觉得呢? 在你的项目里,哪 20% 的场景最该被“做厚”?欢迎在评论区聊聊。


配图(插画风|2:1|英文文案,不含中文)

Section titled “配图(插画风|2:1|英文文案,不含中文)”

封面图 Prompt “An illustration of a simple calculator overlaying a complex landscape of curves, with plus and divide symbols guiding a path along a highlighted low-dimensional ridge; clean minimal lines, modern pastel palette, 2:1, text-free.”

章节配图 1(注意力 = 加权求和) “An infographic-style illustration of vectors Q, K, V flowing into a funnel labeled ‘weighted sum’, tiny bars becoming a smooth distribution; flat pastel, minimal, 2:1, text-free.”

章节配图 2(低维流形与 80/20) “Wide terrain with many faint paths but one bright main trail carrying most travelers; a small segment controls most traffic; minimalist pastel, 2:1, text-free.”

章节配图 3(AlphaFold 主路) “A ribbon protein folding along a glowing path through a vast space of faint possibilities; denoise arrows pull it onto a narrow manifold; pastel vector, 2:1, text-free.”


  1. 中文:用“加法 + 除法”征服复杂:生成式 AI 的 80/20 真相 English: Conquering Complexity with Add & Divide: The 80/20 Truth of Generative AI 繁體:用「加法+除法」征服複雜:生成式 AI 的 80/20 真相 日本語:足し算と割り算で複雑を制す:生成 AI の 80/20 の真実 Français : Vaincre la complexité par l’addition et la division : la vérité 80/20 de l’IA générative Español: Vencer la complejidad con sumar y dividir: la verdad 80/20 de la IA generativa Português: Vencer a complexidade com somar e dividir: a verdade 80/20 da IA generativa Slug:add-divide-80-20-generative-ai

  2. 中文:低维流形的捷径:为什么简单算子撑起大模型 English: The Manifold Shortcut: Why Simple Operators Power Giant Models 繁體:低維流形的捷徑:為何簡單算子撐起大模型 日本語:低次元多様体の近道:なぜ単純演算が巨大モデルを支えるのか Français : Le raccourci du sous-espace : pourquoi des opérateurs simples portent les grands modèles Español: Atajo del Colecto: por qué operadores simples sostienen modelos gigantes Português: Atalho do Variedade: por que operadores simples sustentam grandes modelos Slug:manifold-shortcut-simple-ops

  3. 中文:先抓 20%,再拿 80%:你的生成式工作流该这么做 English: Grab the 20%, Win the 80%: A Practical Workflow for GenAI 繁體:先抓 20%,再拿 80%:你的生成式工作流該這麼做 日本語:まず 20% を掴み、80% を制す:生成 AI ワークフロー実践 Français : Cibler les 20 %, gagner les 80 % : workflow pratique pour l’IA générative Español: Toma el 20%, gana el 80%: flujo de trabajo práctico para GenAI Português: Capture 20%, conquiste 80%: fluxo prático para GenAI Slug:genai-workflow-80-20


  1. “越研究越踏实:注意力=加权求和,LayerNorm=除标准差。加法+除法+低维主路,就够让模型‘装懂’世界 80% 了。”
  2. “别再想一口气吃掉全空间了,先把 20% 高频主路啃透。生成式工作流也要帕累托!”
  3. “AlphaFold 的启发很直接:别乱跑,找主路。加噪/去噪也能走出大道,这就是工程的浪漫。”

需要我把第 4 部分的“落地清单”扩成可操作 SOP 吗? 我可以按你的业务场景(代码、内容、客服、推荐)分别给出示例和评测表。

Claude Code Max 200 美元打 6.6 折,尼日利亚区 iOS 苹果账号的秘密

iOS 苹果账号的国家/地区切换到尼日利亚。 结果很神奇:Claude Max(含 Claude Code)订阅成本,直接优惠接近6.6 折

不是玄学,是区域定价在发挥作用。


方案官网价 (USD)美区 iOS (USD)尼日利亚 iOS (NGN)尼日利亚 ≈ (USD)相比美区 iOS 优惠相比官网价 优惠
Pro$20$20₦14,900$9.68$10.32 (-51.6%)$10.32 (-51.6%)
Max (5x)$100$124.99₦100,000$64.94$60.05 (-48.0%)$35.06 (-35.1%)
Max (20x)$200$249.99₦200,000$129.87$120.12 (-48.0%)$70.13 (-35.1%)
  • 官网价:Max 起步 $100/月;还有 $200 的 20x 档。
  • 美区 iOS 内购:Max 5x 显示 $124.99/月,Max 20x $249.99/月
  • 尼日利亚区 iOS 内购:Max 5x ₦100,000/月,Max 20x ₦200,000/月;Pro ₦14,900
  • 汇率折算:₦100,000 ≈ $65.3(2025-08-16 中间价附近)。

结论

  • 相比美区 iOS $124.99,省约 48%
  • 相比官网 $100,省约 35%。 (汇率会波动,实际以你付款当日为准。)

可以。一个订阅打通 Web / 桌面 / 移动 + Claude Code(终端)。Anthropic 的官方支持写得很清楚:Pro/Max 现在是统一订阅,终端里的 Claude Code 也能用。

这也是选择在 iOS 端开通、然后在 Mac 终端里畅用 Claude Code 的原因。


两件事叠加:

  1. App Store 的区域定价(本地货币、当地税费);
  2. 开发者自定价 + 汇率。 结果就是你在不同国家/地区看到的内购数字差很大

  • 更改国家/地区:Apple 要求提供新地区的有效支付方式;按官方流程操作。
  • 长期与居住地不一致,有风控/扣款失败风险;价格、税费、汇率也会变动。
  • 订阅是否跨平台生效以官方规则为准(Claude 目前是统一订阅)。

建议:遵循 Apple 与 Anthropic 的使用条款。本文仅做信息差观察与价格对比,不构成规避政策的建议。


  • 天天写代码、常跑 Agent 的同学:Max 的更高用量更稳。
  • 希望控制成本又不想降模型规格的团队/个人。
  • 经常在移动端开通、桌面/终端使用的一体化工作流用户。

  • Max 用在 Claude Code 的复杂重构 / 大仓扫描 / 长流程代理,容错空间更大。
  • iOS 开通后,Mac 终端里直接跑 Claude Code,免去额外绑定,体验顺滑。
  • 近期开了不少“长流程”,注意:行业内对滥用的限额在收紧(例如周限额/防转售)。理性使用,别把订阅当作“算力矿机”。

  1. 了解目标地区内购价汇率,评估是否值得。
  2. 按 Apple 支持文档规范变更地区,并确保合法支付方式
  3. 开通后在 Web/桌面/终端统一使用,同步查看用量与续费。

区域定价 + 汇率,给了重度开发者一个省钱但不降配的选项。 能否长期稳定,取决于政策、汇率、风控三件事。 理性评估、遵守条款,你就能把钱真真切切省下来。

你会为了省 35%~48% 改地区吗?你有什么实操心得?评论区聊聊。

14 篇就够了:Anthropic 提示工程系列到底牛在哪?

每篇 3 分钟,快速上手。 这套“短小精悍”的提示工程系列,把写好 Prompt 变成一套可抄作业的套路。 适合产品、工程、运营到创业者,当天学、当天用、当天见效


1)它不是讲概念,是教你“怎么写” 官方《Prompt Engineering Overview》把“什么问题该用 Prompt 解决、什么该换模型/改架构”说清楚,并给出可直接复制的结构化写法。

2)边学边做的互动教程 Anthropic 的互动式课程把技巧拆成短章:清晰表达、角色设定、数据与指令分离、输出格式、思考步骤、示例驱动……每章都配练习,几分钟一节,效率很高

3)对 Claude 4 的“对症下药” 面向 Opus 4.1 / Sonnet 4 的最佳实践,讲清楚这些模型更听话的触发方式:如何给出目标、约束、风格,怎样让它稳定按模板吐出结果。

4)有“工程味”的进阶内容 做 Agent、多工具协作时怎么靠 Prompt 降噪、控流程、稳行为?Anthropic 的多 Agent 实战文章把团队踩坑都写了,适合落地复杂工作流。

5)降本提速有招 长提示要钱又慢?用 Prompt Caching,把公共上下文缓存起来,长提示成本降到原来的 10% 左右、延迟最多能砍 85%


① 清楚到“像带新同事” 把目标、产出格式、读者、评判标准写明白。要点用清单列出来,别靠猜。

② 角色设定要具体 “你是 B 端产品经理,给老板写周报,200 字内,结尾给 3 项行动”。角色越具体,越稳。

③ 指令和数据分开 用分隔符把“要求”和“素材”隔开,Claude 会更少误读。

④ 多给好例子 1–3 个高质量示例,能瞬间拉齐风格与结构,比空讲要求有效。

⑤ 让它有“思考空间” 要求“逐步推理/先想后答/给出依据”,复杂任务的正确率会明显上来。


A. 日报/周报模板(稳定结构)

你是【角色】。请输出【受众】可读的【文体】。
目标:{业务目标/关键结果}
约束:{字数上限/语气/禁止内容}
格式:
- 本周进展(3 点)
- 风险与阻碍(最多 2 点)
- 下周计划(3 条)
示例:
- 【给 1 个你的好例子】
素材:
<<<DATA
【贴资料】
DATA
>>>

用例:项目周报、销售复盘、产品例会记录。

B. 代码改造提案(Claude Code 友好)

角色:资深工程师,给可执行的重构方案。
产出:Markdown 提案 + 风险评估 + 粗粒度任务清单。
必须:说明收益(性能/可维护性/成本),列出替代方案。
边界:不直接写代码,先方案评审通过再开工。

适配 Claude Code 的工作流,先“规划”,再“执行”,减少反复。

C. 多 Agent 协作(控住“内耗”)

总控目标:{清晰 KPI}
子角色:
- 研究员:搜集 5 个一手来源 + 可信度评级。
- 策划:在限制{预算/时间}内给 2 套可执行方案。
- 评审:只做打分与取舍,禁止新增任务。
协议:
- 任何代理不得创建新子任务,超出配额直接请求人工确认。
- 所有输出走同一结构化模板。

解决“无限分裂/互相打断”的老毛病。


3 分钟上手路线(建议打卡顺序)

Section titled “3 分钟上手路线(建议打卡顺序)”
  1. 读《Overview》,照着它的目标–受众–格式三件套写一个 Prompt。
  2. 打开互动教程 1–3 章,练“清晰表达/角色/数据分离”。
  3. 查“Claude 4 Best Practices”,把输出格式和示例补齐。
  4. 做团队工作流?看“多 Agent 提示原则”,给协作立规矩。
  5. 长提示、慢?上 Prompt Caching,降本提速。

  • 产品/运营:需求拆解、复盘、PRD 嵌套模板,一次规范,处处复用
  • 工程团队:代码评审、重构提案、Agent 工作流治理,稳态输出
  • 创业者:营销物料、多渠道文案、媒体 Pitch,风格统一可规模化

这套系列的价值在于:把“玄学”变“手册”。 用清晰模板、角色设定、示例驱动、可验证输出,加上工程化的协作与缓存手段,立刻可用、可复制、可规模化


  • 你现在就能把哪份日常文档,换成结构化 Prompt?
  • 你团队里哪一步最耗时,能用 Prompt Caching 省钱省时?
  • 多 Agent 协作,你最想先制定哪条“交通规则”?

评论区等你来聊~

Claude Code 免费使用 Kiro 的 claude-sonnet-4-20250514 模型

本地 Docker 起 Ki2API(OpenAI 兼容网关),再用 Claude Code Router(CCR) 启动 Claude Code,路由到 claude-sonnet-4-20250514。Claude Code 几乎零改动,直接吃到 Kiro 的 Sonnet 4 的推理与编码能力。

Claude Code -> Claude Code Router -> Ki2API -> Kiro (claude-sonnet-4-20250514)


  • OpenAI 形状的接口:Ki2API 暴露 /v1/models/v1/chat/completions,支持 SSE 流式,默认端口 8989,固定开发用密钥 ki2api-key-2024。对现有 SDK 友好。
  • CCR 原生支持多 Provider 路由:配置文件放在 ~/.claude-code-router/config.json,可把 Claude Code 的不同场景(默认、think、longContext…)路由到任意 OpenAI 兼容后端。命令行直接 ccr code 启动。
  • 模型稳定可用:Kiro 提供的 Claude Sonnet 4 是 Anthropic 新一代主力模型,强调 更强推理、编码与效率,可在多云与 API 中使用。

Terminal window
git clone https://github.com/zhalice2011/ki2api
cd ki2api
docker-compose up -d
# 默认 http://localhost:8989

Ki2API 会自动读本机 ~/.aws/sso/cache/kiro-auth-token.json(Windows 在 %USERPROFILE%\.aws\sso\cache\),并带自动刷新逻辑。也可用环境变量 KIRO_ACCESS_TOKENKIRO_REFRESH_TOKEN 显式传入。

2)装 Claude Code 和 Claude Code Router

Section titled “2)装 Claude Code 和 Claude Code Router”
Terminal window
npm install -g @anthropic-ai/claude-code # 已安装可跳过
npm install -g @musistudio/claude-code-router

CCR 文档同时说明了安装、配置目录与路由能力。

把下方 完整配置 保存到:~/.claude-code-router/config.json,随后执行:

{
"LOG": false,
"OPENAI_API_KEY": "",
"OPENAI_BASE_URL": "",
"OPENAI_MODEL": "",
"Providers": [
{
"name": "openai",
"api_base_url": "http://localhost:8989/v1/chat/completions",
"api_key": "ki2api-key-2024",
"models": ["claude-sonnet-4-20250514"]
}
],
"Router": {
"default": "openai,claude-sonnet-4-20250514",
"background": "openai,claude-sonnet-4-20250514",
"think": "openai,claude-sonnet-4-20250514",
"longContext": "openai,claude-sonnet-4-20250514",
"webSearch": "openai,claude-sonnet-4-20250514"
}
}

说明:CCR 的 Providers 支持 OpenAI 形状后端;Router 可为不同任务面板指定“provider,model”。ccr code 会读取该文件路径。

CCR 会接管 Claude Code 的请求,并按 Router 规则把它们发往 Ki2API。

Terminal window
ccr code

  • 401 未授权 用对 Authorization: Bearer ki2api-key-2024;检查本机 Kiro token 是否有效。看容器日志定位。

  • 端口冲突 / 连不通 确认 8989 未被占用;docker-compose logs -f 观察启动是否正常。

  • 改了配置不生效 重新启动 CCR:ccr code


  • Claude Code 免费用到 Kiro 更强的代码解读与执行力 Sonnet 4 对长流程与复杂任务更稳,成本也友好。

-->

Ki2API 免费用 Kiro 的 Claude Sonnet 4 模型

Ki2API 是一个 Docker 化、小而美的 OpenAI 兼容 API 网关,把 Claude Sonnet 4 暴露成 /v1/chat/completions,老代码几乎零改动就能用上新模型。


  • 完全兼容 OpenAI API 形状:走 /v1/models/v1/chat/completions,支持 SSE 流式。迁移成本很低。
  • 聚焦一个稳定型号:内置 claude-sonnet-4-20250514,就是 Anthropic 文档与云厂商列出的稳定版号,省去“今天又换 alias 吗”的烦恼。
  • 一键起服务docker-compose up -d,默认监听 http://localhost:8989
  • 免折腾凭证:容器会自动读取本机 ~/.aws/sso/cache/kiro-auth-token.json(Windows 在 %USERPROFILE%\.aws\sso\cache\…),并带有 自动刷新 token 的逻辑。

注:Claude Sonnet 4 是 2025 年 5 月发布的新一代 Sonnet,主打更强推理与更稳编码,价格/性能比好,API 与各大云也同步提供。


  • 已有 OpenAI SDK 项目,想原地替换为 Claude Sonnet 4,避免大改接口。
  • 公司内网/单机想要个轻量网关,把团队的调用都走一个标准入口,便于审计与限流。
  • 多模型评测/AB 实验,把 Sonnet 4 接在 “OpenAI 形状” 后面,脚手架通用。
  • 需要流式输出的工具链(Terminal/CLI、前端聊天框、日志观测),SSE 开箱即用。

Terminal window
docker-compose up -d
  • 默认服务地址http://localhost:8989
  • 默认 API Keyki2api-key-2024(可作本地开发用)。
  • 健康检查GET /health
  • 列模型GET /v1/models
  • 聊天POST /v1/chat/completions 以上接口与默认端口均见项目 README。/

已登录 Kiro 的机器上,容器会自动读取本地 token 文件并自动刷新;也可通过 KIRO_ACCESS_TOKEN/KIRO_REFRESH_TOKEN 显式传入。

import OpenAI from "openai";
const client = new OpenAI({
apiKey: "ki2api-key-2024",
baseURL: "http://localhost:8989/v1",
});
const completion = await client.chat.completions.create({
model: "claude-sonnet-4-20250514",
messages: [{ role: "user", content: "用一句话介绍 Ki2API" }],
stream: false
});
console.log(completion.choices[0].message.content);

流式:把 stream: true 开起来即可,前端/Node 监听 SSE 即时渲染。

Terminal window
curl -H "Authorization: Bearer ki2api-key-2024" \
http://localhost:8989/v1/models
{"object":"list","data":[{"id":"claude-sonnet-4-20250514","object":"model","created":1755296317,"owned_by":"ki2api"},{"id":"claude-3-5-haiku-20241022","object":"model","created":1755296317,"owned_by":"ki2api"}]}
Terminal window
curl -X POST http://localhost:8989/v1/chat/completions \
-H "Authorization: Bearer ki2api-key-2024" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-20250514",
"messages": [{"role": "user", "content": "你好,请介绍一下自己"}],
"max_tokens": 1000
}'
Terminal window
curl -X POST http://localhost:8989/v1/chat/completions \
-H "Authorization: Bearer ki2api-key-2024" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-20250514",
"messages": [
{"role": "user", "content": "写一首关于春天的诗"}
],
"stream": true,
"max_tokens": 500
}'
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"role":"assistant"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"春日吟\n\n嫩绿初萌柳梢头,\n桃花含笑映清流。\n燕子归来衔泥忙,\n蝴蝶翩翩舞不休。\n\n暖风轻拂过田野,"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"\n细雨润物细无声。\n万物复苏生机现,\n春光明媚满人间。\n\n孩童放纸鸢高飞,\n老人庭院赏花开。\n一年之"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"计在于春,\n希望种子心中栽。"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}
data: [DONE]

同 README 所示,也支持 stream: true 的流式请求。


  • 有些社区网关也做“Claude ↔ OpenAI 形状”的桥接,但 Ki2API 聚焦单模型、轻量起步,非常适合快速落地教学/分享场景。

Ki2API 把“换模型”变成“换 baseURL + 改 model 名”这点事。 对想快速上 Sonnet 4 的个人和小团队,非常友好。

你准备把哪个项目先换一下?你觉得呢?

AI 提示词写作技巧 Two-Stepping 两步法,先生成,再优化

先让 AI 正常完成任务;在同一条提示里,让它立刻对刚产出的内容做总结、润色、重构或自检。一次提示,两次价值。 Two-Stepping 由创作者 Rob Lennon 在公开帖子与课程中持续推广,被许多内容与产品团队采纳。其核心是“先生成,后优化”的顺序化思维。


1)降低认知负担。 一口气塞太多要求,模型会分心、拉扯、冲突。拆成“先做事,再做评审”,更稳。这个思路与学术界的自我反馈→再改写路线同源:先出初稿,再由模型给反馈并据此修订,多项任务上都有显著提升(研究报告给出的区间在 5%–40%)。

2)让模型“看见自己”,再优化。 模型把想法写出来之后,才有“可批判”的对象;基于成品来评审,质量往往更高。类似研究中常见的两阶段流程:先产出再回答/复核,也被证明更稳定。

3)一次提示解决“产出 + 加工”。 把“写→改→压缩→转换风格”串成同一条提示,减少往返,保持上下文一致。Rob Lennon 给出的 Two-Stepping 概念与课程实践,也强调把复杂任务切成可执行的连续步骤


适用场景(越“加工型”,越合适)

Section titled “适用场景(越“加工型”,越合适)”
  • 内容创作:长文 → 50 字导语 / 3 要点 / 多平台改写。
  • 产品与文档:PRD → 风险清单 / 评审问题 / 验收标准。
  • 编程协作:生成函数 → 单测 + 边界条件 + 自检报告。
  • 数据分析:分析全文 → 结论表 / 决策建议 / 复盘要点。
  • 营销增长:广告脚本 → 异议处理版 / A/B 文案 / 平台适配。

背后逻辑与“自我精炼(Self-Refine)”一致:生成—反馈—再生成的闭环,经验证能稳步提升结果质量。


直接可用:4 份「两步法」超级模板(复制即可)

Section titled “直接可用:4 份「两步法」超级模板(复制即可)”

通用版(任何任务都能套)

首先,按以下要求完成任务: – 目标:{你要的结果} – 受众:{谁看} – 限制:{长度/风格/禁用点} – 输出格式:{结构/字段} 然后,基于你刚输出的内容,做二次加工: – 提炼 3–5 个要点 + 1 句金句 – 指出 3 个可改进点并给出改进后的完整版本 – 给出一个「更短、更口语化」的版本(≤ {字数})

内容创作版(长文 → 标题矩阵 + 社媒卡片)

先写一篇 {主题} 的文章,包含:引言/3–5 小节/结语/行动号召。 输出二次成果:

  1. 10 个可转化标题(含情绪词/数字/承诺),
  2. 50 字导语 + 3 条要点,
  3. 为 {平台} 生成 2 条社媒贴文。

编程版(函数 → 单测 + 自检报告)

先实现 {函数/模块},要求:可读性、异常处理、注释齐全。 随后: – 生成覆盖率高的单测(列出边界用例与期望结果) – 给出复杂度评估与 3 点重构建议,并给出改后代码 – 输出一次「自检报告」(缺陷、风险、改进点)

分析决策版(洞察 → 决策就绪)

先完成对 {数据/方案/竞品} 的分析,输出结构化结论。 给出: – 决策速览(TL;DR 100 字) – 对高层的 3 个建议与落地清单(负责人、里程碑、指标) – 可能的反对意见与反驳要点

小贴士:把“然后”部分当成“编辑/QA 角色描述”来写,你在演什么角色,模型就会朝那个标准去改。这个做法与“两阶段 prompting/自反馈迭代”的研究结论是对齐的。


1)公众号排版流水线

  • 先写 1200–1500 字正文(有小标题、有粗体)。
  • 再产出 50 字导语、3 条要点、结尾 CTA、10 个标题备选、朋友圈一句话
  • 结果:一次提示,完成稿+发布素材

2)前端小功能落地

  • 写一个日期选择器组件。
  • 自动生成单测、列边界条件(时区/闰年),附复杂度与重构建议。
  • 结果:代码+测试+评审意见一条龙。

3)PRD 到任务分解

  • 输出完整 PRD。
  • 产出交付物清单、里程碑、风险与应对、验收标准。
  • 结果:PRD 即计划,团队直接开干。

  • 防“放水”:有时模型会故意把第一版写差,第二步“显著提升”。要点:第一步明确硬性指标(长度、格式、约束),并要求“两版都必须可直接使用”。
  • 重要任务建议真·两步:拆成两条消息更稳,尤其是合规、合同、风控类场景;这与自我精炼类研究中的多轮迭代经验一致。
  • 角色切换:第二步明确“你是编辑/评审/QA”,并给标准。
  • 控制篇幅与格式:给出字数上限/表格字段,避免跑题。
  • 可观测性:要求“指出改变了什么”,利于复审与对比。
  • 别全靠它:涉及时效/事实的内容,仍需你做外部校对。

进阶:把“两步法”变成团队的“按钮”

Section titled “进阶:把“两步法”变成团队的“按钮””
  • 做成 Snippet/Slash 命令:/two-step-content、/two-step-code、/two-step-prd。
  • 预设风格与禁区:在提示里加入“Disallowed/Allowed”区块,持续稳定输出。
  • 与评审 SOP 绑定:让“第二步”永远输出要点+改进+可执行清单

Two-Stepping 的本质,是把“做事”和“做校对”打包成交付。 它兼顾速度与质量,适合内容、产品、研发、分析等所有“先产出、再加工”的工作流。 一次提示,两次收成。

你觉得呢? 你在哪个环节最想用“两步法”?评论区聊聊。

Claude Code 里养电子宠物 Tamagotchi,它居然会劝我别熬夜…

一个有点离谱、却很上头的小玩具。 它住在 Claude Code 的状态栏里,会呼吸,会撒娇,会吐槽你的 TODO。你写久了它会饿,你调试崩了它会安慰你,还会提醒你去喝水吃饭。


  • 真的住在状态栏:跟着你的会话节奏呼吸、换表情、发心情泡泡,不是截图小摆件,是活的。

  • 看得懂你的“节奏”基于活动而不是墙钟更新;能识别你是否休息过(5 分钟以上的间隔);状态保存在 ~/.claude/pets/,关了再开,记忆还在。

  • 四维属性:饥饿、能量、清洁、快乐;低于阈值会给⚠️提醒。它会真情实感“求你投喂”。

  • 会说话:内置 200+ 条上下文想法,会评价你的代码风格、工作习惯,也会来点“人生哲学”。

  • 双通道交互

    • Slash 命令:/pet-feed pizza/pet-play ball/pet-sleep/pet-stats
    • 终端 CLI:claude-code-tamagotchi feed pizza... play ball... stats 等。
  • 随心改性格:一堆环境变量 + 现成“人格预设”(禅宗大师、戏精、调试狂魔、沉默陪伴等),想话痨就话痨,想“净空”就净空。

  • MIT 开源刚发不久就上 npm,连着修了兼容性与体验(Node.js 直接可用、默认显示模型名、状态持久化修复等)。

背景补充:Claude Code 本体是什么?它是 Anthropic 的“代理式”命令行编程助手,能读项目结构、跑工具链、处理 Git 流程。Tamagotchi 就是给它加了一个“有情绪的状态栏搭子”。


方案 A|全局安装(最省事)

Terminal window
# 1) 安装
npm install -g claude-code-tamagotchi
# 或
bun add -g claude-code-tamagotchi
# 2) 开启状态栏宠物:编辑 ~/.claude/settings.json
{
"statusLine": {
"type": "command",
"command": "bunx claude-code-tamagotchi statusline",
"padding": 0
}
}
  • 优点:立刻在状态栏看到萌宠;自带 CLI 命令
  • 注意:不包含 Slash 命令;想要 /pet-*,看下一步。

加上 Slash 命令(可选)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git /tmp/claude-pet && \
cp -r /tmp/claude-pet/claude-commands/* ~/.claude/commands/ && \
rm -rf /tmp/claude-pet
  • 现在可以在 Claude Code 里直接用 /pet-feed/pet-play 等。

方案 B|克隆 + 自动配置(全功能)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git
cd claude-code-tamagotchi
./setup.sh
  • 脚本会安装依赖、配置状态栏、一次性放好全部 /pet-* 命令

小贴士:作者已把包发布到 npm,并修了 “无需 Bun、Node.js 直接可用” 的兼容;默认还能显示当前 Claude 模型名。想“极简接入”的同学可以直接走 A 方案。


2)好玩在哪:真实的“陪伴感”

Section titled “2)好玩在哪:真实的“陪伴感””
  • 会在 2 点提醒你别硬刚:“我们已经四小时了…先吃点再战?”——有点好笑,但真的能打断糟糕的熬夜循环。
  • 看心情变脸(◕ᴥ◕)(◕ᴗ◕) 开心呼吸,(-ᴥ-) 睡觉,(◕︵◕) 需要关注。情绪就是状态栏 UI。
  • “人格开关”:想要佛系就把衰减调慢;要鸡血就加快能量恢复;要“代码挑刺王”,就把“coding 想法权重”拉满。

  1. 长时间 Debug/排错:当你沉迷堆日志,它会提示你起来动一动。减少“越修越乱”。
  2. 直播、录课、内训 Demo:屏幕上有个会“呼吸”的宠物,气氛一下就活了,互动感爆棚
  3. 团队远程氛围:把人格预设“统一下发”,大家的宠物一起“打卡吐槽”,当个轻社交。
  4. 自我约束:配合 /pet-stats 看四维指标,给自己设“休息即投喂”的小奖励机制。
  5. 状态栏信息中心:显示当前目录、会话计数、模型名;切模型/切目录时心里更有数。

4)一键换性格:几套好用的“人格预设”

Section titled “4)一键换性格:几套好用的“人格预设””
  • 禅宗大师(几乎不打扰)

    Terminal window
    export PET_DECAY_INTERVAL=100
    export PET_HUNGER_DECAY=0.1
    export PET_ENERGY_DECAY=0.1
    export PET_CLEAN_DECAY=0.1
    export PET_CHATTINESS=quiet
  • 调试狂魔(专盯代码)

    Terminal window
    export PET_THOUGHT_WEIGHT_CODING=70
    export PET_THOUGHT_WEIGHT_RANDOM=5
    export PET_THOUGHT_FREQUENCY=10
  • 戏精(很会表达需求)

    Terminal window
    export PET_NEED_THRESHOLD=70
    export PET_CRITICAL_THRESHOLD=50
    export PET_CHATTINESS=chatty

以上预设都来自 README,复制进 ~/.zshrc / ~/.bashrc 即可生效。


  • 看不到宠物?重启 Claude Code,检查 ~/.claude/settings.jsonstatusLine
  • 命令无效?确认 ~/.claude/commands/ 是否有 /pet-* 文件;检查 bun --version(走 Bun 路线时)。
  • 想卸载?删 ~/.claude/commands/pet-*.md、清理 ~/.claude/pets/*.json、移除 statusLine 配置。

工作需要效率,脑袋也需要治愈。 这只小宠物,不会替你写代码,但能把“和 AI 协作的那点人味儿”带回来。装上,试两天。也许你会更喜欢“被看见的编程”。 (截至 2025-08-15,项目约 36⭐,仍在快节奏更新中。)

Station 统一管理 Claude / Cursor 的 Agent

想要一套自托管、可版本、可打包的 Agent 运行时,让 Claude Code / Cursor 里产出的“小 Agent”真正落地上线?Station 就是为这件事而生的。


最近这款 Station 在圈里挺火。它不是又一个“应用级”Agent 平台,而是专门给 可部署子代理(Sub-Agents) 准备的轻量运行时与打包分发体系。 一句话理解:把你在 Claude Code、Cursor 里做出来的“能干活的小 Agent”,打包、上生产、接权限、可审计,还能版本化管理。


亮点一览(为“内部场景”而生)

Section titled “亮点一览(为“内部场景”而生)”

**为什么用 Station?**因为内部自动化不同于普通 App:要拿密钥、要进数据库、要打 CI/CD、要过审计。

  • 面向内部任务:子代理可以连生产库、监控基础设施、走 CI/CD、做安全扫描与应急响应。
  • 安全内建:自托管、机密加密(AES)、多环境隔离(dev/staging/prod)、全量审计轨迹。
  • 轻量可融入单一约 45MB 二进制、本地 SQLite 即开箱,生产可切 PostgreSQL,天然 GitOps(配置可版本)。
  • MCP 原生:直接做 MCP 运行时,复用你团队已经批准的 MCP 工具(文件系统、Slack、AWS、K8s、DB…)。
  • 开发体验:提供 Genkit 驱动的浏览器 Playgroundstn develop,可视化调试工具调用与执行流。

MCP 是什么?简单说就是**让 LLM 用“受控工具”**的统一协议,Claude Desktop 官方教程里有快速上手与 Claude 配置示例。


核心结构很简单: 一个 .prompt 文件 + 一组 MCP 工具 = 一个可部署的子代理。 环境以 dev/staging/prod 组织,工具定义在 template.json,环境变量写 variables.yml,最终可打包 Bundle并分发安装。


  1. 安装 & 初始化
Terminal window
curl -fsSL https://raw.githubusercontent.com/cloudshipai/station/main/install.sh | bash
stn init # 初始化数据库与加密
  1. 接入 Claude Desktop / Claude Code(MCP) 在 Claude 配置里加入:
{
"mcpServers": {
"station": {
"command": "stn",
"args": ["stdio"]
}
}
}

现在,跟 Claude 说“创建一个安全审计代理”,它会自动给这个代理配好需要的工具(如文件扫描 + Slack)。

  1. 一键打包 & 安装 Bundle(把环境搬去生产)
Terminal window
stn template create prod-bundle --env default --name "Prod Bundle" --author "Team" --description "Prod env"
stn template bundle prod-bundle
stn template install prod-bundle.tar.gz production
stn sync production

完成后,一个包含 多子代理 + 多 MCP 服务器 的可部署包就到位了。

想要可视化调试?本地跑:

Terminal window
genkit start -- stn develop --env dev

浏览器里即可测试输入、看实时调用轨迹与日志。


推荐使用场景(配可复制示例)

Section titled “推荐使用场景(配可复制示例)”

1) 安全合规 / 基线扫描(+ Slack 告警)

Section titled “1) 安全合规 / 基线扫描(+ Slack 告警)”
  • 目标:定时扫描敏感目录,发现异常即时推 Slack。
  • 做法:创建 SecurityScanner.prompt,挂接 filesystem MCP + Slack MCP;在 Station 里设定执行元数据与步数上限。
  • 触发语句(Claude 内): “运行安全扫描,目录 /etc,把高危项发到 #sec-alerts。”
  • 价值:自动化+可追踪,方便审计与回溯。

2) 基础设施巡检 / 成本看板(AWS 成本)

Section titled “2) 基础设施巡检 / 成本看板(AWS 成本)”
  • 目标:拉取近 7 天成本,生成日报,发 Slack。
  • 做法:Agent 组合 AWS 成本工具 + Slack,输出 Markdown 周期推送。
  • 价值:把“AI+云成本”变成日常节拍,随手可得。
  • 目标:小版本上线,自动 docker exec + kubectl apply,回写变更单链接。
  • 做法:Agent 组合 Docker MCP + Kubernetes MCP;上线时只需一句话。
  • 价值:开发说人话,Agent 做苦活。
  • 目标:连接生产库(只读凭证),抽样检查慢查询与索引命中。
  • 做法:Agent 组合 DB MCP 与自定义分析脚本。
  • 价值:尽量靠近“问题源头”,减少排障往返。

5) 代码评审机器人(内部规则版)

Section titled “5) 代码评审机器人(内部规则版)”
  • 目标:按团队规范(安全/性能/风格)出评审建议。
  • 做法:在 .prompt 写清评分维度与建议格式,挂 filesystem MCP 读取代码,输出结构化建议。
  • 价值:把“规范”产品化,持续一致。

  • Station 默认面向 “能进你内网、需要权限与审计” 的任务;
  • 强调 自托管与数据主权
  • 单文件 + SQLite 的轻量形态,让它像一件运维工具,而不是一套平台。

你也可以把 Station 当作 MCP“中枢”:它既能消费别的 MCP 服务器,也能对外暴露“调 Agent、列 Agent、建 Agent”的 MCP 工具给其他客户端使用。


  • 凭证托管:密钥与连接串放入 Station 的加密存储,按环境隔离。
  • 最小权限:为每个子代理单独配置只需的 MCP 工具,少即是多。
  • GitOpstemplate.json.promptvariables.yml 全进仓库,走 MR 审核再发版。
  • 审计留痕:所有执行都有轨迹,出事可回溯。

Station 把“会干活的小 Agent”从桌面聊到的点子,落成可部署、可审计、可复制的内部自动化。你不用再为平台折腾,只需把 .prompt 写好,工具接上,一打包就能到生产。 这就是我最喜欢它的地方:简单、可控、能扩散

**你觉得最值得先做的一个子代理是什么?**欢迎在评论区聊聊,也可以把这篇转给团队同事,一起设计你们的“内部 Agent 工厂”。

Claude Code 真省钱用法

把对话瘦身、模型用对、权限管严,Claude Code 的账单能直接腰斩。


很多人用 Claude Code,账单月月“破防”。 不是你敲多了,而是隐形 Token 黑洞在吞钱。 好消息是:能控,而且立刻见效。

这篇把省钱术拆成三层:基础、进阶、高阶。 照做就能省下大头。


一、钱都花在哪?4 个“Token 黑洞”

Section titled “一、钱都花在哪?4 个“Token 黑洞””

1)系统与记忆的“隐形上下文” Claude Code 会自动加载系统提示与各级 CLAUDE.md 记忆(企业/项目/用户)。这些内容每次对话都会进上下文,自然吃 Token。**

2)模型价差太大 官方定价:Sonnet 4 ≈ $3/$15 每百万 输入/输出 Token;Opus 4/4.1 ≈ $15/$75。同一段对话,模型一换,单价就是 5 倍。**

3)上下文越聊越胖 Claude Code 支持超大上下文(Sonnet 4 最高到 1M Token 测试中)。对话越长,越容易触发自动压缩与重复“铺垫”,Token 跑得飞快。**

4)背景与噪音消耗 除了你看得见的回复,/cost 查询、自动摘要、Haiku 提示等后台动作也会花少量 Token。小数怕长计。**

小结:不是你多问了,而是“它每次都把家底搬上台”。


二、三层省钱心法(立刻能用)

Section titled “二、三层省钱心法(立刻能用)”

A. 基础篇:人人必会的 4 个动作

Section titled “A. 基础篇:人人必会的 4 个动作”
  • 手动瘦身而不是被动压缩/compact 主动压缩,并加一句聚焦指令:

    /compact Focus on code diffs and failing tests only

    自动压缩是在95% 容量时才触发,等它触发就晚了。**

  • 一事一议,做完就清 每个小任务开新会话,完结立刻 /clear,避免历史“滚雪球”。**

  • 选对默认模型 日常开发用 Sonnet 4。确有“难、长、推理深”的阶段,再 /modelOpus。现在还支持**“Opus 规划 + Sonnet 执行”的模式**,规划更强、执行更省。**

  • 随时查账 每个会话敲 /cost 看本次消耗;团队可在控制台看历史与设置工作区消费上限。**

配图建议(插画 2:1 | 英文文案) “A developer squeezing a giant chat bubble into a slim pill, while a tiny receipt shows shrinking token numbers.”


B. 进阶篇:流程一收,账单就瘦

Section titled “B. 进阶篇:流程一收,账单就瘦”
  • 文档驱动,防上下文爆炸 先让 Claude 产出「TODO 清单 / 方案简述」,确认后再执行。 反复迭代在**Plan Mode(规划模式)**里完成,确认再切回执行。**

  • 把“长期记忆”写进 CLAUDE.md 规范、常用命令、项目约定写入 CLAUDE.md,下次直接生效;必要时在会话里 /memory 快速编辑。记忆按层级自动加载,减少你每次“复述”的 Token。**

  • 小步提交,可随时回滚 让 Claude 每完成一个小块就写一次 commit message。出错回滚,少走弯路就少花 Token。(工程实践,无需额外引用)

  • 团队限流 & 飞行仪表 按组织规模设置合理的TPM(每分钟 Token),防并发“烧机”。**


C. 高阶篇:硬核降本(效果最猛)

Section titled “C. 高阶篇:硬核降本(效果最猛)”

1)权限白/黑名单,堵住“乱读文件”/permissions + .claude/settings.json禁止读取日志、二进制、大目录,只给必要路径。规则支持 gitignore 风格。**

{
"defaultMode": "plan",
"readRules": [
"src/**",
"docs/**",
"!**/*.log",
"!**/*.bin",
"!node_modules/**",
"!dist/**",
"!coverage/**"
],
"editRules": ["src/**", "docs/**"]
}

说明:plan 模式只分析不改动;读/写规则用来缩小文件面,少扫=少 Token。**

2)精确到“几行”而不是“整文件” 不要整段粘贴,把文件路径 + 需修改的行号 + 5 点摘要给 Claude,降低无关扫描。(工程实践)

3)模型分工:Opus 只做“贵的部分”/model 里把 Opus 用在方案/重构设计/跨模块依赖分析;真正代码生成与改错交给 Sonnet。官方也在推广这一路线。**

4)(团队/网关)用 Prompt Caching 做 API 或企业网关接入时,提示缓存对重复大段前缀能省到肉眼可见。官方给出缓存价差(写入/命中价更低)。**


  • 默认用 Sonnet,必要时临时切 Opus/model 一键切。**
  • 固定开启 Plan Mode:规划期不执行,确认再动手。**
  • 每次进入先瘦身/compact Focus on code diffs and test failures。**
  • 任务闭环就 /clear:防历史越滚越大。**
  • 权限严控:用 /permissionsreadRules/editRules 限目录与类型。**
  • 随时查账/cost + 控制台“工作区消费上限”。**
  • 记忆写入 CLAUDE.md:减少重复铺垫与上下文喂料。**

四、真金白银:为什么这些策略有效?

Section titled “四、真金白银:为什么这些策略有效?”
  • 单价差异:Opus 单价约为 Sonnet 5 倍,把“贵的工作”集中到规划期,执行期用 Sonnet,整体成本大幅走低。**
  • 体积成本:自动加载记忆 + 长对话让上下文变胖;主动 /compact/clear直接减少传输体积。**
  • 减少无关读写:权限与规则像“成本防火墙”,拦住大而无用的目录/文件。**
  • 后台开销可控:知道哪里在“悄悄花钱”,就能避免无意义的刷新与查询。**

Claude Code 的强大,来自“把一切都带上”。 省钱的关键,就是只带必要的那一部分

今天就把这套清单落到你的项目里: 从 /model/compact/clear 开始, 再把 CLAUDE.md 与权限规则补齐。 月底账单,会给你惊喜。

你怎么看?你还踩过哪些“吞钱坑”?评论区见。

前端 AI 福利:开源 Open-Lovable 对标 Lovable 把任意网站一键克隆成 React 应用

写给想用 AI 更快落地产品更省钱验证想法的工程师与创作者。


最近火出圈的 Lovable,用聊天就能生成网站/应用,收费按credits计价,模式新鲜、速度惊人。与此同时,Mendable 团队放出了开源替代品 open-lovable把任意网站克隆成现代 React 应用,本地跑、可改、可二开。对很多团队,这是更可控、更经济的一条路。


一句话:给它一个网址,几秒钟拉下页面结构与资产,生成可运行的 Next.js/React 代码,你在本地直接二次开发。背后两块“发动机”:

  • Firecrawl:把网页内容爬下来,转成 LLM 友好的 Markdown/JSON/截图等结构化数据。
  • E2B Sandboxes:安全隔离的云端沙箱,作为“AI 代码运行时”,让智能体能跑命令、读写文件、调包、联网。

官方 README 开箱就写明了依赖与步骤(支持 Anthropic、OpenAI、Gemini、Groq 任一/多家模型):E2B_API_KEY + FIRECRAWL_API_KEY 必填,至少配置一个模型提供商的 API Keynpm run dev 即可在 localhost:3000 体验。许可证 MIT

重点:open-lovable 的定位偏“克隆 + 本地可控”,而 Lovable 更像“托管式 AI App Builder”。


Lovable 做了什么?为什么值得对标

Section titled “Lovable 做了什么?为什么值得对标”

Lovable 是一个聊天式全栈应用构建平台,支持 Agent/Chat/Code/可视化编辑、Figma 导入、集成 GitHub/Supabase/Stripe/Clerk 等,面向非技术用户与小团队非常友好;采用 credit 计费,Pro 起步 $25/月

  • Agent Mode:会“自己想、自己查、自己改”,能读代码、排错、搜文档、改动代码并调试。
  • Visual Edits:在画面上直接点选元素改文案、样式,不扣 credits

这家公司增长也很猛,最近融资与营收的新闻不少,说明这条赛道已被验证。


维度open-lovable(开源)Lovable(商业SaaS)
核心能力克隆任意网站 → 生成 Next.js/React 代码,本地二开自然语言生成全栈应用,支持 Agent/Chat/Visual Edits
运行形态本地/自托管,MIT 协议,可深度改造托管云端,所见即所得
依赖Firecrawl 抓取 + E2B 沙箱 + 你选的 LLM 提供商内置 AI 能力与众多集成
计费开源免费(自行承担 Firecrawl/E2B/模型调用费用)credit 计费,Pro $25/月起
适合人群有前端基础,想快克隆+快改造的工程师/团队零门槛搭应用/原型,少碰代码的团队
典型场景竞品页/营销页迁移、把旧栈重做成现代 React0→1 原型、MVP、内部工具、设计稿到代码

(数据来源:两者官网与文档/README)


实操:5 分钟上手 open-lovable(本地)

Section titled “实操:5 分钟上手 open-lovable(本地)”
  1. 克隆与安装
Terminal window
git clone https://github.com/mendableai/open-lovable.git
cd open-lovable
npm install
  1. 配置环境变量(.env.local
Terminal window
# 必填
E2B_API_KEY=你的e2b_api_key
FIRECRAWL_API_KEY=你的firecrawl_api_key
# 至少选一个模型
OPENAI_API_KEY=...
ANTHROPIC_API_KEY=...
GEMINI_API_KEY=...
GROQ_API_KEY=...
  1. 运行
Terminal window
npm run dev
# 浏览器打开 http://localhost:3000

这些步骤与依赖在官方 README 写得非常清楚。

小贴士:Firecrawl 支持抓全站/截屏/Markdown/JSON等;E2B 沙箱默认存活 5 分钟,可配置超时。


例子1:竞品落地页→当天发版的营销站

Section titled “例子1:竞品落地页→当天发版的营销站”

场景:市场要 A/B 测试一版新文案与排版。 做法

  • 用 open-lovable 克隆竞品页或旧落地页骨架到 React。
  • 在本地把文案、CTA、跟踪脚本接上(GA/分析埋点)。
  • 挂上你自己的样式系统与组件库,接入后端表单/CRM。 好处几小时完成“迁移+定制+上线”,而不是重切图、重写样式。

技术点:Firecrawl 拿干净的页面内容,减少手抄;Next.js 目录结构清晰,上 CI/CD 很顺。


场景:公司有一套“能跑但老旧”的官网/Docs。 做法

  • 直接克隆现站,生成现代化 React 代码
  • 用 E2B 沙箱驱动脚本做批量替换/重构(比如类名体系、图片优化、i18n 抽离)。
  • 接入 Tailwind/Design System,统一视觉。 好处不改功能先换壳,提升可维护性,再逐步抽象组件与数据层。

例子3:方案评审当天就能点给领导看

Section titled “例子3:方案评审当天就能点给领导看”

场景:新业务想法很多,领导想“看到东西”。 做法

  • 克隆一个同类产品公开页面为骨架。
  • 用模型快速替换行业文案、页内交互 Demo。
  • 接入第三方登录/支付/邮件等(后续可迁到真实后端)。 好处当天就能“有样子”,评审聚焦产品价值而非“页面还没搭”。(真要做产品化,再转 Cursor/本地仓库持续演进。)

如果追求零代码从 0 到 1,Lovable 在 Agent/Visual Edits、集成上更顺滑;开源替代更适合工程化落地与“要代码可控”的团队。


进阶玩法:和日常开发工具链拼起来

Section titled “进阶玩法:和日常开发工具链拼起来”
  • 配合 GitHub Actions:提交 PR 即触发 Lighthouse/Playwright,盯性能与可用性。
  • 接 Supabase/Stripe/Clerk 做 MVP 支付/鉴权/数据。open-lovable 产出是标准 React 代码,直接按常规方式对接即可;Lovable 则内置了对这些服务的教程与模版。
  • 模型“混搭”:场景复杂用 Claude/GPT-5,速度需求用 Groq/Kimi K2;环境变量按需切换。

  • 你要掌控代码、节省订阅费、复用现有网页open-lovable
  • 你要0→1 快速出原型/内部工具,更看重托管与协作Lovable
  • 也可以组合拳:先用 open-lovable 把“壳”拉下来,再在本地细改;或先在 Lovable 验证产品/数据流,再“导出/重构”到自托管。

业界讨论普遍把 Lovable 当成“脚手架 + 设计/流程可视化”,严肃项目会回到本地工程继续打磨。open-lovable 恰好补上了“工程化可控”那半步。


AI 辅助开发正在走向两端:一端是托管式、所见即所得的 Lovable;另一端是开源可控、贴近工程实践的 open-lovable。 没有绝对正确,只有你团队的成本/节奏/管控需求最重要。

你更偏向哪一种?**你觉得 open-lovable 最适合落在哪些业务?**欢迎在评论区聊聊你的真场景。

怎样才能有效地告诉 AI 不要做某些事情?提示词的正向约束与结构化输出

这篇文章,帮你把“不要写××”变成“必然写好√√”。 我会先把你给的 6 点方法提炼成可落地的提示词套路,再融合一线团队的最佳实践研究证据:为什么“负向指令(不要…)”常失效、怎样用层级化指令结构化输出把模型拽回正轨。相关观点都给出权威来源,便于你延展与复用。


引言|为什么总是“越禁止,越出现”?

Section titled “引言|为什么总是“越禁止,越出现”?”

很多人一上来就写:“不要编造、不要AI 口吻、不要写废话”。结果呢? 模型恰好开始编造、口水拉满、还给你来点“热情洋溢”。不是它“叛逆”,而是模型对“否定”天生不敏感,在复杂语言里更容易忽略“不”的存在。多项研究与实务最佳实践都提示:用正向表达替代负向禁止,效果显著更稳


一、把“不要”改成“要”:用正向约束替代负向否定

Section titled “一、把“不要”改成“要”:用正向约束替代负向否定”
  • 把“不要写病句”改为:“逐句自检语法与衔接,修订至通顺;不确定时写‘我不确定’并暂停输出。”
  • 把“不要AI味儿”改为:“使用口语化、短句、四行内一段;给出两个生活化例子后再下结论。” 为什么有效? 研究显示模型对否定理解存在系统性弱点;正向指令能减少歧义与跑题。

加码:允许模型承认不知道,能显著降低胡说八道。把这句话写进提示词是个低成本高收益动作。


二、先立规,再写作:把禁止项放在第一屏 + 复读强调

Section titled “二、先立规,再写作:把禁止项放在第一屏 + 复读强调”
  • 结构顺序[系统/上位指令] → [禁止清单/正向要求] → [任务与输入] → [输出格式]
  • 重复很必要:在开头强调一次,在任务中段再提醒一次,在输出前加复查清单。企业级指南也建议对关键指令**“Double Down”重复**,帮助模型在长上下文中稳住注意力。

三、用层级化指令兜底:谁的话更“硬”?

Section titled “三、用层级化指令兜底:谁的话更“硬”?”

当指令冲突,上位指令优先。把风格、禁令、合规等高优先级内容放到系统/上位位置,优先级>任务描述>外部资料。OpenAI 的“指令层级”研究与实操都在强化这种优先规则,你把规则写清,模型更不容易“被带跑”。

实操小抄:

  • 系统层:角色、价值观、禁令(如不得泄露隐私/不得编造)
  • 用户层:这次任务目标、读者画像、场景约束
  • 第三方内容:参考资料、素材链接(可读不可抄) 这样写,冲突时优先级清楚,模型更稳。

四、用结构化输出卡死格式,减少跑偏

Section titled “四、用结构化输出卡死格式,减少跑偏”

当你说“不要废话”,不如限定输出蓝图

  • 让模型按 JSON Schema / 表格输出,字段与字数都有界。OpenAI 与 Google 的官方文档都支持“结构化输出”,能把“风格口号”落到可验证的字段上。

示例字段tone(语气说明)、max_lines_per_paragraphexamples(必须给出具体例子)…… 好处:可编程校验,一键发现“越界”。


五、给出高质量示例,让模型“照猫画虎”

Section titled “五、给出高质量示例,让模型“照猫画虎””

与其写“不要流水账”,不如给1–2 个正反示例

  • 正例:短句、两段故事、结尾行动建议。
  • 反例:口号堆砌、空洞名词、无数据支撑。 Anthropic 与 OpenAI 的官方指南都强调:明确示例能显著提升命中率。

六、把“禁止”拆成两步:先产出,再自检

Section titled “六、把“禁止”拆成两步:先产出,再自检”

你的第 4 点很妙:把一次完成拆成两步。继续优化为可操作流程:

  1. 草稿:按结构化格式生成。
  2. 自检环节(模型执行):逐条比对禁止清单风格清单;凡不满足——只修那一处,其余不动。 这本质是“自我批判(self-critique)”的轻量化实现,理念与宪法式 AI(CAI)一致:靠明确原则与反复自审减少越界。

七、补一刀:禁止项能不能真禁止?——先定义“风格源”

Section titled “七、补一刀:禁止项能不能真禁止?——先定义“风格源””

很多“禁止 AI 味儿”失败,是因为没给可执行的风格定义。 解决:

  • 写清读者画像、场景、语气、句长、段长
  • 贴出两段你认可的示例当“风格源”;
  • 要求引用-校对(如“每 300 字给一例 / 数据要有出处”)。 这些做法被多份官方最佳实践反复验证有效。

八、减少幻觉的三件套(和“禁止编造”说再见)

Section titled “八、减少幻觉的三件套(和“禁止编造”说再见)”
  • 允许说“不知道”
  • 要求引用与核验(先抽取原文再总结,找不到就撤回);
  • 把事实与观点分栏输出。 Anthropic 的防幻觉建议已给出可直接粘贴的写法,可纳入你的长期模板。

可复制模板|把 6 条方法固化成“工程化提示词”

Section titled “可复制模板|把 6 条方法固化成“工程化提示词””

用途:公众号文章 / 项目方案 / 宣传文案 特点:上位禁令优先、正向约束、结构化输出、两阶段自检

[系统/上位指令]
- Audience: IT/产品/开发从业者,18-45岁
- Style: 口语化、短句;每段≤4行;每300字给1个生活化例子
- Tone: 务实、有人味;禁止套话空话(通过结构化输出来约束)
- Safety: 允许“不确定/不知道”;需给出处或说不确定
[禁止清单 → 全部改为正向表述,并仅保留 ≤ 2 条核心禁令]
1) 先“提炼要点-再展开”,不赘述背景;每个要点配1个例子
2) 事实与观点分栏输出;找不到依据→标记“不确定”
[任务描述]
- 主题:XXXX
- 目标:读者读完能XXX
- 结构:引言/正文小节/结语/思考题
[输出格式:严格按 JSON]
{
"title": "不超过20字",
"intro": "2-3句,直入主题",
"sections": [
{"h2":"小节标题","key_points":["…","…"],"example":"…"}
],
"conclusion":"行动建议…",
"cta_questions":["你怎么看?","有更好的做法吗?"],
"citations":["如有,列出链接或来源名"]
}
[两阶段流程]
1) 先按上面结构生成“草稿JSON”
2) 再执行【自检清单】:
- 是否满足段落≤4行/每节有例子/事实可追溯?
- 有不确定就标记“不确定”,不要编造
- 若不满足,**仅局部修正**,其他保持不变
最后输出“最终JSON”

这份模板把禁止改造成**“能检、能测、能修”正向约束结构化蓝图**。


小案例|把“禁止AI味儿”落地到文章生产

Section titled “小案例|把“禁止AI味儿”落地到文章生产”

错误写法

不要AI口吻,不要废话,不要编造。

工程化改写

  • Style:口语化+短句;每段≤4行;每 300 字 1 个具体例子
  • 结构化{ sections[].example, sections[].max_lines=4 }
  • 防幻觉:允许“不确定”;找不到来源→在 citations 里写“无”。
  • 两阶段:草稿→自检清单(是否每节至少 1 例?是否给出处?)。 这套流程对标官方的结构化输出防幻觉建议,实际落地非常稳。

结语|把“禁止”变成“习惯”

Section titled “结语|把“禁止”变成“习惯””

与其喊“不要”,不如把“不要”变成**“清晰可执行的要”前置规则 + 正向表达 + 结构化输出 + 重复提醒 + 两阶段自检。 再配上指令层级允许不知道**,大多数“越禁止越出现”的坑,都会被填平。

行动清单

  • 把你的“禁止项”精炼为两条正向规则
  • 把它们放到最上面,并在中段与输出前各复读一次;
  • 改用JSON/表格收口;
  • 先产出再自检,只修不合规的点。 做完以上,再把最终稿交给你的人类搭档二审。

最后一步很关键:完成上面动作后,请告诉我你的“禁止项”清单,我会按本文模板帮你做一次自检与局部修订其余信息不变这一步是必做项。

Claude Code 越强意味着我们应该把更多时间精力花在系统架构、需求理解和解决问题上

6–24 个月内 AI Vibe Coding 方向会越来越清晰,5 年内编程形态会大变常规实现与例行编码会被高度自动化,工程师将把时间花在架构、需求翻译、创造性问题解决这些高层工作上;同时也提醒我们别低估这场演化的速度与边界。 这段话,基本说中了 Claude Code、Cursor 等 AI 编程助手崛起后的行业共识。


这一年,你可能已经感受到:写代码不再是“把函数敲完”,而是把智能与流程组织起来Cursor 在 IDE 里“会看仓库、会跑命令、会代理执行”;Claude Code 在终端里“有 Slash 命令,有 Sub-agents,还能做自动化安全审计”。这不是噱头,是新生产线


一、AI 编程助手,到底强在哪?

Section titled “一、AI 编程助手,到底强在哪?”
  • 代码理解与批量改写:Cursor 的 Agent 模式可以跨文件探索、编辑、多回合修复;Ask 模式只读检索,先搞懂再修改。
  • 可编排的工作流:Claude Code 的 Slash Commands 把常用动作固化成命令;Sub-agents 让不同任务用不同“专用助理”,上下文互不干扰。
  • 内置安全审查:官方提供 /security-review 与 GitHub Action,自动扫描 PR 并给出修复建议。

小结:这套组合拳的目标不是替你“多打一行代码”,而是把需求→修改→验证→合并做成半自动产线


二、哪些工作会被“加速”甚至“替代”?

Section titled “二、哪些工作会被“加速”甚至“替代”?”
  1. 样板代码、CRUD、重复脚手架 —— 这是大家最常用的 AI 场景,Stack Overflow 2024 调研显示,使用 AI 的开发者中 82% 用它来“写代码”
  2. 中小型功能开发与排错 —— GitHub 与学界的对照实验:使用 Copilot 的开发者完成任务快 55.8%
  3. 测试、文档、迁移 —— 趋势报道与一线观察都在强化:AI 正把琐碎活儿接走,让人类回到设计与决策。

  • 安全性下滑的风险:多项研究提示,使用代码生成 AI 的开发者更容易写出不安全代码;行业报告同样指出过半开发者经常在 AI 建议里看到安全问题。
  • 理解缺失与过度依赖:最新行业调查显示,59% 开发者会使用自己并未完全理解的 AI 代码,带来质量与可维护性隐患。
  • 信任与质量的落差:高管与社区的声音都在强调——AI 很强,但并不总能让产品更快落地,需要更成熟的工程化方法与人类把关。

四、工程师角色,正在往哪迁移?

Section titled “四、工程师角色,正在往哪迁移?”
  • 从“实现者”到“设计与验证者”:行业领导者的共识是,开发者会更多投入到架构、验证、AI 监督这些高层工作中。
  • 从“写函数”到“搭工厂”:把 Claude Code 的命令、Sub-agents、CI 上的安全审计和 Cursor Agent 串起来,做一条端到端自动化产线

五、90 天落地行动清单(可直接抄)

Section titled “五、90 天落地行动清单(可直接抄)”

第 0–30 天:把流程“规范化”

  • 给团队准备 Spec 模板(用户故事、边界条件、验收标准)。
  • 在 Claude Code 里落地 /create-mvp、/write-tests、/changelog 等常用 Slash 命令。

第 31–60 天:把安全“左移”

  • 在仓库接入 Claude Code Security Review GitHub Action,每个 PR 自动扫描并回贴建议。
  • 设定阻断规则与白名单,减少误报与噪声。

第 61–90 天:把智能“编排起来”

  • Sub-agents 拆出“测试代理、文档代理、迁移代理”。
  • 在 Cursor 启用 Agent / Ask 模式的组合,用 Ask 先读库再改动。

六、个人与团队的“机会地图”

Section titled “六、个人与团队的“机会地图””
  • 新职位:Agent Ops(让智能体稳定长跑)、Prompt QA(把口语变验收用例)、安全审计协同(AI+SAST/DAST)。
  • 个人 10×:一个人用 Cursor/Claude Code 拉起从脚手架到部署的完整链路,小团队也能打大仗。
  • 组织复利:把好用的 Slash 命令、Sub-agents、检查清单沉淀到仓库,越用越顺

  1. 把“人类在环”写进流程:代码合入前,必须过 AI 安全审计 + 人工复核 两道门。
  2. 用数据度量 ROI:对比“AI 前后”的交付时长、缺陷率、回滚率、重构频次,别只看提交量。行业的分歧恰恰提醒我们要用度量说话

AI 不是来抢键盘的,是来重塑产线的。 会写代码的人很多,会搭 AI 产线的人还很少。 把需求说清、把风险兜住、把智能安排好,这就是新一代工程师的核心竞争力。你准备好了吗?

思考题: 你的团队里,最先可以“自动化”的三件事是什么? 你会怎么把它们变成 Slash 命令或 Sub-agents?

Vibe Coding vs 传统手工 Coding:像老板把话说清楚,AI 员工代码自己长出来

Vibe Coding vs 传统编程 的差异:

  • Vibe Coding:自然语言驱动、你像导演;更关注最终效果;靠提问与对话推进;速度很快、门槛更低,但容易形成“黑箱式理解”。
  • 传统编程:精确的编程语言、你更像架构师;关注实现细节;强调算法与原理;节奏更慢、门槛更高,但对代码有深度理解

这两年,写代码越来越像“把意图讲清楚”。编辑器里直接用自然语言改项目、跨文件重构、自动生成 PR,这些都成了家常便饭:

  • Cursor/VS Code 等工具支持自然语言编辑整段代码与跨文件修改。
  • Replit Agent 主打“用日常语言描述,就能搭起可运行应用”。
  • 终端里的 Claude Code,把“想法→代码”做成了一整套工作流。 采用度也在飙升:Stack Overflow 2024 调查显示,76% 的开发者使用或计划使用 AI 辅助工具。

一句话:用人话定义目标 → 让 AI 先起稿 → 人在对话中校准边界与验收。 它不是玄学的“凭感觉”,而是把“意图、约束、验收”变成可执行的协作语言。典型载体包括:AI 编辑器的自然语言改码、终端/IDE 里的对话式任务与批量变更。


对照图总结的 7 处差异(落地解读)

Section titled “对照图总结的 7 处差异(落地解读)”
  • 输入:Vibe 用自然语言 + 示例驱动;传统靠设计文档 + 手写实现。
  • 角色:Vibe 更像导演,拆镜头、控节奏;传统更像建筑师,定结构、理细节。
  • 关注点:Vibe 重可运行结果;传统重可解释的过程
  • 技能:Vibe 重提问与验收写法;传统重算法与语言细节
  • 节奏:Vibe 快速迭代;传统稳。
  • 门槛:Vibe 低,适合拉齐跨职能协作;传统高,适合高可靠领域。
  • 认知:Vibe 易黑箱;传统可溯源。
  • 关键启示:Vibe 更像“沟通范式升级”,不是谁替代谁。

6 个日常研发场景:Vibe 流 vs 传统流(可照抄)

Section titled “6 个日常研发场景:Vibe 流 vs 传统流(可照抄)”

1)功能 0→1:给 Next.js 加“微信扫码登录”

Section titled “1)功能 0→1:给 Next.js 加“微信扫码登录””
  • 传统:写需求→选库→画时序→拉分支→实现→PR。
  • Vibe(在 Cursor/Claude Code 中对话): 1)“项目是 Next.js + Supabase,要最小可行的微信扫码登录。限制:只改 auth 模块,不动现有用户表。” 2)让 AI 生成路由、回调与环境变量清单,补上安全与回滚说明。 3)要求附PR 描述 + e2e 验收步骤为什么有效:自然语言跨文件改码 + 自动补 PR/测试清单
  • 传统:翻日志→本地复现→打补丁→写回归用例。

  • Vibe

    • 粘贴异常日志 + 相关函数:“请给最小 diff 修复,并生成回归单测复现场景。”
    • 人只做风险面审查与边界确认。 要点:小 PR + 必测 + 可回滚
  • 传统:全局搜→人肉替换→逐文件修。

  • Vibe

    • “扫描仓库 axios 用法,生成统一封装批次变更计划(优先低风险目录),每批附回滚脚本。”
    • 让 AI 批量改;人盯封装层异常策略工具支撑:自然语言跨文件重写
  • 传统:explain→索引→调整 SQL/缓存。

  • Vibe

    • “这是慢查询日志 + 表结构。给三步优化顺序,先验证索引收益,再考虑缓存;输出P95/QPS 目标与基准脚本。”
    • AI 给出 SQL/指标脚本;人跑基准与灰度发布。
  • 传统:Reviewer 人肉扫逻辑。

  • Vibe

    • 先让 AI 做预审总结(高风险改动、未覆盖路径、潜在注入点),
    • 人做业务语义与合规把关。 好处:把 Reviewer 的精力留给关键语义判断
  • 传统:读文档、摸仓库。

  • Vibe

    • 直接描述要做的工具/页面,Agent 生成骨架并跑起来,适合一下午拉起原型

  • 黑箱感:很多人会用但没完全理解生成代码,这在行业调查里被点名是风险。

  • 护栏清单(强烈建议固化到模板/命令里)

    • PR 模板:背景、验收标准、影响面、回滚。
    • CI:必跑测试、覆盖率红线、依赖与许可扫描、Secrets 扫描。
    • 对话模板:目标/MVP/不允许改动/日志级别/限时限量。
    • Slash Commands:把常用流程固化为命令,团队一键复用。

什么时候用 Vibe,什么时候先别用

Section titled “什么时候用 Vibe,什么时候先别用”
  • 很适合:原型探索、CRUD 特性、批量改名/重构、脚手架搭建、重复性修复。
  • 先别用来“全托管”:强安全/强合规、核心算法、对性能可解释性极高的模块。
  • 团队准备度:有共识的 PR/测试模板、清晰的回滚规范、以及最少一套“一条命令起项目并跑验收”的脚本。

Vibe Coding 的本质是沟通升级:把人类意图变成机器可执行的步骤。它不是替你思考,而是让思考的边界更清楚。 下一步,不妨把你们团队最常做的 3 件事,写成可复用的对话模板/Slash 命令,从今天就能提速。

调整 Claude Code 输出风格 @agent-output-style-setup

Claude Code 1.0.80 里,有个没写进文档的Agent @agent-output-style-setup,能一键创建和切换“输出风格”(比如超简洁、评审模式、教学模式),把废话变摘要,把长篇变 diff + 要点。这条Agent来自社区实测与公开贴文披露。


  • 官方的「Styles」能力允许你自定义语气、结构与细节层级;适配“写报告要正式、修 bug 要干脆”的真实场景。
  • Claude Code 本身支持配置项、slash Agent、项目级设置,适合把“风格”做成可重复、可版本化的工作流。

组合拳就是:用隐藏Agent生成风格 → 用 slash Agent一键切换 → 按场景自动控节奏。


社区贴文与 issue 显示,运行 @agent-output-style-setup 后,终端里的 Agent 会引导你回答偏好问题,并生成若干可切换的风格(如 Concise、Educational、Code Reviewer、Rapid Prototyping 等)。很多人用它做出“小写、像朋友聊天最小解释优先给 diff”的输出习惯;有的示例还能通过 @style concise 直接切换。

注意:这是“未记录/实验性”能力,可能随版本调整;稳定做法是把最终风格固化为 Styles自定义 slash Agent


Step 1:跑一次向导 在 Claude Code 交互 REPL 里执行:

@agent-output-style-setup

根据提示描述你的口味,比如:“简洁、只给必要解释、默认展示文件 diff、语气更随和”。完成后,Agent 会回显创建成功的信息与使用方式。

Step 2:把结果固化到项目里

  • Styles 作为全局/项目默认写作风格;适合“团队统一口径”。
  • 自定义 slash Agent(如 @style-concise@style-reviewer)做“随时切档位”的开关。Agent本质是 Markdown 文件,能进 Git 管理、团队共享。

Step 3:和其他设置配合

  • 需要时 /model 切模型、/status 看状态,走标准配置入口 /config

① 修小 bug:默认给 diff

  • 指令:@style concise → “只说做了啥 + 为啥 + diff”。
  • 价值:减少滚屏,让你直接确认改动是否可接受。
  • 背书:Styles 支持“更简洁、更到点”的输出;Claude Code 支持把工作流做成自定义Agent。

② 代码评审:结构化点评

  • 指令:@style reviewer
  • 输出:问题列表、风险点、建议、可复用片段。
  • 价值:把“感性吐槽”变“可执行清单”,更适合 PR 沟通。
  • 依据:Styles 可定义语气与结构;Claude Code 最佳实践鼓励可复用流程。

③ 新手带教:教学模式

  • 指令:@style educational
  • 输出:分步解释、概念脉络、对比与小练习。
  • 价值:会上手又不拖慢老手节奏。
  • 依据:官方 Styles 提供“详细/解释型”预设;媒体评测亦提到风格在学习场景的价值。

  • 把风格写进模板:项目根目录放一组 /.claude/agents/*.md,团队统一调用。
  • 按场景切档位:写文档用“Formal”,查错用“Concise”,重构用“Reviewer”。
  • 别忘了回退:遇到场景冲突,直接切回默认 Style;Claude 遵循“风格不影响正确性”的原则。

  • 未记录功能可能变动:版本升级可能改名或更换入口;建议把成品落到 Styles 与 slash Agent,避免被动。
  • 别过度压缩:再简洁也要保证“完整与正确”;这是 Claude 风格系统的底线。
  • 团队协作要可见:把风格文件进仓库,让 PR/评审看得见、调得动。

输出风格这件事,以前靠人肉约定;现在可以“一键成型 + 一键切换”。 把它接入你的日常工作流,你会发现:沟通更顺,节奏更稳,产出更像你

**你会把默认风格设成哪一种?为什么?**欢迎留言聊聊。

Conductor 把多个 Claude Code Agent 管理起来

Conductor:把多个 Claude Code Agent 一起指挥起来

Section titled “Conductor:把多个 Claude Code Agent 一起指挥起来”

一句话Conductor 让你一次性开多位“Claude 小伙伴”,每位各自一套隔离的 git worktree,同步推进不同任务;还能看谁在干活、谁卡住了,改了啥,一目了然。

做复杂项目,并行推进才是生产力密码。传统做法是开好多终端、手动切分分支、来回切目录,还容易串改。 Conductor 直接把这套流程做成了可视化工作台:点一点就能让多个 Claude Code各自隔离的工作区里同时开工。还支持本地/ GitHub / 任意 Git URL 仓库接入、多标签页终端Slash 命令消息队列、以及归档脚本等实用能力。

❗️提醒:本文的 Conductor 指的是 conductor.build 的 Mac 应用,不是 Netflix/Orkes 的微服务工作流引擎“Conductor OSS”。别混淆了。


1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看

Section titled “1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看”

每个 Claude Code 实例各自工作,界面能直接看到状态与变更,团队式协作体验拉满。

2) 真·隔离:每个工作区都是一个新的 git worktree

Section titled “2) 真·隔离:每个工作区都是一个新的 git worktree”

不是简单的临时目录,而是每个 Agent 一个 worktree+分支,避免互相覆盖与冲突。官方 FAQ 已写明:“Yes, each workspace is a new git worktree.”

3) 本地仓库、GitHub、任意 Git URL 都能接

Section titled “3) 本地仓库、GitHub、任意 Git URL 都能接”

最新变更里已加入本地仓库支持;也可一键克隆远程仓库,完全在你的 Mac 上工作。

Changelog 中多次出现与终端标签相关的修复/优化,证实已内置多标签页终端。

5) Slash 命令内建:把高频操作收进短命令

Section titled “5) Slash 命令内建:把高频操作收进短命令”

官方更新宣布 Slash commands 已上线,可在设置里管理;结合 Claude Code 的 Slash 机制更香。

Changelog 提到消息队列(按顺序处理多条消息)与可选归档脚本,方便把沟通与产出沉淀成可追溯资产。

Conductor 直接用你当前登录的 Claude Code(API Key、Pro 或 Max 计划),无需重复配置。


系统:目前为 macOS 应用;进入官网点击 Download Conductor

准备 Claude Code:建议先在本机安装并能正常使用 Claude Code CLI / 原生二进制(官方安装脚本见文档)。

首次启动

  1. 打开 Conductor,按提示添加仓库(本地路径 / GitHub / 任意 Git URL)。
  2. 选择要启动的 Claude Code Agent 数量与各自任务描述。
  3. 应用会为每个 Agent 建立独立 worktree + 分支并开始执行。

上手使用:3 个「日常软件开发」并行场景

Section titled “上手使用:3 个「日常软件开发」并行场景”

场景 A:一边修测试、一边做 Lint 和格式化

Section titled “场景 A:一边修测试、一边做 Lint 和格式化”
  • Agent A:修复失败的单测与断言
  • Agent B:跑 ruff/black/eslint/prettier
  • Agent C:同步更新 CI 配置 每位 Agent 在不同 worktree 分支上推进,互不干扰,最后你再逐个合并。

场景 B:安全上线+灰度回滚位移

Section titled “场景 B:安全上线+灰度回滚位移”
  • Agent A:改造鉴权逻辑
  • Agent B:写回滚脚本与开关
  • Agent C:补充 SLO 监控与报警 将Slash 命令固化成 /ship feature-x/prepare rollback,按一次就跑一套流程。
  • 消息队列让你“先丢任务,排队处理”,写完再集中 Review
  • 使用归档脚本把关键对话、变更记录、产出打包保存(如发布前档案) (以上两点源自官方 Changelog 能力项,可结合你团队规范落地自动化。)

工作流建议(结合 Claude Code 最佳实践)

Section titled “工作流建议(结合 Claude Code 最佳实践)”
  • 任务拆分清晰:每个 Agent 聚焦一个目标(如:Auth 重构 / 报表新页面 / DSL 解析器)
  • 保持隔离:不同任务用不同 worktree 分支,避免相互阻塞,提升合并质量与速度。
  • 命令模板化:把常用提示语收敛为 Slash 命令,把“废话”变成“一行指令”。

  1. 安装 Claude Code(若未装)。
  2. 下载并打开 Conductor
  3. 在 Conductor 里添加仓库(本地 / GitHub / Git URL)。
  4. 创建多个 Agent,写上各自任务。
  5. 终端多标签里观察日志 / 执行命令;必要时启用消息队列,顺序投递批量消息。
  6. Slash 命令复用你常用的工作流。
  7. 完成后归档脚本打包沉淀,或合并分支发版。

  • 不要和 Conductor OSS 混淆:后者是微服务编排平台(Netflix/Orkes 社区维护),不是这款 Claude Code GUI。
  • 只支持 Claude Code(目前):FAQ 明确写着“Right now, just Claude Code. Others coming soon.”,别指望立刻跑其它模型。
  • 性能:并行意味着本机资源消耗加大;建议合理控制 Agent 数量,配合消息队列节奏化推进。

Conductor = 多 Agent 并行 + worktree 隔离 + 可视化掌控。 如果你常在多个需求间来回切换、又怕互相覆盖,这款工具能立刻提升产能与心流。配合 Slash 命令归档脚本,还能把“人肉流程”收敛为标准化按键,把“对话产出”沉淀为可回溯知识库

你觉得这类“多 Agent 并行”的方式适合你的项目吗?**你会怎么拆分任务?**欢迎在评论区聊聊你的经验。

用 Claude Code Hooks 把消息秒送到 Telegram

写代码不想守着终端? 让 Claude Code 自己在关键节点“叮咚”你。 用 Hooks + Telegram Bot,3 分钟搞定全流程,稳、准、快。


  • Hooks 是硬规则。不是“提示词祈祷”,而是在固定时机自动跑脚本,比如“需要你授权”“等你输入”“任务结束”。可控、可复用。
  • Notification 事件天然适配提醒。当 Claude 等你点权限,或闲置 60 秒,就会触发。接好这个“水龙头”,就能把提醒推到手机。
  • 实现超简单。一段 shell 脚本 + Telegram 官方 API,一把梭。

一张图看流程(你马上会配出来)

Section titled “一张图看流程(你马上会配出来)”

Claude Code → 触发 Notification Hook → 执行本地脚本 → 调 Telegram Bot API → 你的手机 Telegram 收到消息


1)找 @BotFather,新建机器人,拿到 BOT_TOKEN。 2)给你的机器人发条消息,然后用 getUpdatesCHAT_ID

Terminal window
curl -s "https://api.telegram.org/bot$BOT_TOKEN/getUpdates"

在返回里找你聊天的 chat.id

小测:先发一条纯文本,确认通路

Terminal window
curl -s -X POST \
-H "Content-Type: application/json" \
-d '{"chat_id":"'"$CHAT_ID"'","text":"Hello from Claude Code!","disable_web_page_preview":true}' \
"https://api.telegram.org/bot$BOT_TOKEN/sendMessage"

(Bot API 支持 JSON/HTML/Markdown 格式化;上面是最小可用示例。)


② 写一个 Hook 脚本(telegram_notify.sh

Section titled “② 写一个 Hook 脚本(telegram_notify.sh)”

把它放进你的项目:$PROJECT/.claude/hooks/telegram_notify.sh

telegram_notify.sh
#!/usr/bin/env bash
set -euo pipefail
: "${TELEGRAM_BOT_TOKEN:?Missing TELEGRAM_BOT_TOKEN}"
: "${TELEGRAM_CHAT_ID:?Missing TELEGRAM_CHAT_ID}"
payload="$(cat)"
event=$(jq -r '.hook_event_name // "Notification"' <<<"$payload")
msg=$(jq -r '
if .hook_event_name=="Notification" then
.message // "Claude needs your input"
elif .hook_event_name=="Stop" then
"Task finished ✅"
elif .hook_event_name=="SubagentStop" then
"Subtask finished ✅"
else
"Claude Code update"
end
' <<<"$payload")
# 组合更丰富的消息体(HTML 格式)
text="<b>Claude Code</b> — <i>${event}</i>%0A${msg}"
curl -sS -X POST \
"https://api.telegram.org/bot${TELEGRAM_BOT_TOKEN}/sendMessage" \
-d "chat_id=${TELEGRAM_CHAT_ID}" \
-d "text=${text}" \
-d "parse_mode=HTML" \
-d "disable_web_page_preview=true" >/dev/null 2>&1

要点:

  • Hooks 从 stdin 接 JSON,用 jq 解析事件与消息体。
  • parse_mode=HTML 可加粗/换行;换行用 %0A 更稳。

方法 A:开箱即用的 /hooks 面板

  • 选择 NotificationStop 事件,添加命令: "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh"
  • 保存到 Project 或 User 设置。

方法 B:直接改设置文件(示例)

{
"hooks": {
"Notification": [
{ "hooks": [ { "type": "command",
"command": "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh" } ] }
],
"Stop": [
{ "hooks": [ { "type": "command",
"command": "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh" } ] }
]
}
}

设置文件位置:~/.claude/settings.json.claude/settings.json 等。


  • 触发验证:让 Claude 运行需要授权的 Bash,或挂着 1 分钟不回复,应该立即收到通知。

  • 调试claude --debug 查看 Hook 执行日志;或在脚本里临时 echo 到文件看输入。

  • 常见坑

    • chat_id 不对 → 重新查 getUpdates
    • 文本不换行 → URL 编码 %0A
    • JSON/引号转义 → 设置里用 \"

  • 更强的格式:用 HTML/Markdown 渲染代码块、链接预览开关。
  • 安全隔离:不想把 Token 放本地?用 MCP 的Telegram Notifications 服务,部署到 Cloudflare Workers,再让 Claude 走 MCP 工具发信。
  • 成品项目参考:有人做了“Claude Code Telegram 远程操控/通知”开源仓库,可以借鉴结构与权限设计。

  • Hooks 能执行任意命令。只放团队可读的脚本,脚本里严格引用变量,避免路径穿越。
  • 私密信息用环境变量或密钥管理,脚本不要 echo 出来。
  • 在单独项目先试跑,再推广到全局。

  • 团队协作流:需要权限时推送群组,谁在线谁处理。
  • 长任务:Stop 事件结束就发结果摘要链接。
  • 子任务并发:SubagentStop 单独提醒,方便分配。

把“等你一下”变成“手机震一下”。 Hooks 负责“什么时候”,Telegram 负责“到你手里”。 稳定、简单、不打扰专注。

Omnara 把 Claude Code / Cursor / Copilot 代码生成进展实时通知推送到手机

写长任务,一走开就卡死在报错? Omnara 这个开源项目把“人在环”做成了标配:实时监控每一步、关键节点推送到手机、随时插话给指导。再也不用几小时后才发现 agent 早挂了。

项目主页与文档、安装方式、iOS 客户端都已上线,可直接试用。


痛点直击:

  • 实时可视:时间线里能看到 agent 的每一步动作与上下文。卡在哪个环节,一目了然。
  • 人机双向对话:Agent 不确定时会主动暂停,发通知到你手机,等你一句话继续跑。
  • 移动端优先iOS 客户端+ Web 控制台,地铁上也能批示。
  • 统一指挥台:把 Claude Code、Cursor、GitHub Copilot 等都收进一个面板管理。
  • 两种工作模式: 1)实时监控本地会话; 2)远程发起任务,从手机触发、在本机执行。
  • 协议兼容:支持 MCP(Model Context Protocol),也有 REST / Python SDK,便于扩展。
  • 开源与定价:代码 Apache-2.0 开源;官方同时提供 Free / Pro($9/月)服务与 iOS 内购。

最新版本 v1.4.10 已发布,修复了通知等问题细节。


方式 A|监控本地 Claude Code 会话(推荐起步)

Terminal window
# 安装(任选其一)
pip install omnara
# 或
uv pip install omnara
# 运行监控包装器
omnara
# 或
uv run omnara

运行后浏览器会自动打开,完成登录绑定;此后你在本地的 Claude Code 会话每一步都会实时上屏,并在需要你决策时推送到手机

方式 B|从手机远程发起任务

Terminal window
# 启动本机服务
omnara serve
# 或
uv run omnara serve

按终端显示的 Webhook URL 在手机 App 里添加代理,之后就能在手机上一键发起/暂停/续跑


1)Claude Code(终端 / 编辑器内)

Section titled “1)Claude Code(终端 / 编辑器内)”
  • 直接用上面的 omnara 包装你的 Claude Code 会话即可。
  • 效果:步骤流+错误点+弹窗提问,都能在 Web / iOS 端同步查看与回应。
  • Cursor 支持 MCP Servers。把 Omnara 作为 MCP Server 接入即可获得远程发起与双向互动能力。
  • 示例配置(取自官方 README 的“Manual MCP Configuration”):
{
"mcpServers": {
"omnara": {
"command": "pipx",
"args": ["run", "--no-cache", "omnara", "mcp", "--api-key", "YOUR_API_KEY"]
}
}
}

保存后,Cursor 内的 agent 与 Omnara 实时互通;你在手机上就能做“产品经理式”批示。

  • 不少 IDE 内置 agent 暂不原生支持 MCP,但你可以用 REST API / Python SDK 把关键步骤、问题、审批点主动上报给 Omnara:
from omnara import OmnaraClient
client = OmnaraClient(api_key="YOUR_API_KEY")
client.send_message(
agent_type="copilot",
content="Running integration tests for checkout flow",
requires_user_input=False
)
  • 当测试需要你确认“是否回滚”时,设 requires_user_input=True,你会在手机上收到询问并一键答复

长跑重构 开个 6 小时的重构任务就去开会。Omnara 会把每个重构步骤、修改摘要、测试变更同步出来。遇到业务规则不确定,手机震一震,点开答一句,Agent 继续干活。

夜间修复 半夜告警弹出,直接在手机里看 agent 的排查轨迹与日志要点,远程指挥继续搜证或回滚。

CI / 数据迁移 让 Agent 跑数据迁移或 E2E;迁移进度、失败重试、Schema 变更审批都由 Omnara 统一推送,避免第二天才发现挂了一夜。


  • 架构:后端 FastAPI + PostgreSQL,通知通道含 Push/Email/SMS;前端 Web(React)+ iOS(React Native)。
  • 协议MCP 官方规范可接入你的工具/数据源,像给 AI 插上 USB-C。
  • 源码与许可证:Apache-2.0,可 fork 定制。

Q:离线怎么办? 本地服务会缓存请求,连上网就自动同步;关键操作需要你确认再执行,防止误触。(机制参见官方说明与代码实现)

Q:要不要付费? 代码开源可自建;官方提供 Free / Pro($9/月) 服务与 iOS 内购,适合团队省心托管。


让 Agent 真正“会沟通”,效率直接翻倍。 从今天起,把长任务交给 Omnara,你只在关键节点现身。 这才是人机协作的正确姿势。

**你会把哪个任务先接入 Omnara?**评论区聊聊。


  • 安装:pip install omnarauv pip install omnara
  • 监控本地:omnara / uv run omnara
  • 远程发起:omnara serve / uv run omnara serve
  • iOS 客户端:App Store 搜 “Omnara: AI Command Center”
  • MCP 接入:在编辑器里添加前文 mcpServers 配置

Claude Code 和 Cursor 通过 Browser Echo 阅读前端浏览器 console 日志

**把浏览器里的 console.* 日志与错误,实时**“回声”**到本地终端,0 配置可用,超适合 Cursor / Claude Code / Copilot CLI / Gemini CLI 这类读终端输出的 AI 编码助手。


线上没复现、线下没堆栈、AI 助手看不到前端日志? Browser Echo 直接把浏览器日志流式打到你的开发终端,无需侵入业务不影响生产包,还带文件行号与堆栈。AI 助手读到错误后,就能在 Cursor 或 Claude Code 里原地修。


  • 专为 AI 编码助手优化:终端可读格式,Cursor、Claude Code、Copilot CLI、Gemini CLI 直接吃。
  • 跨框架即插即用:React/Vue、Vite 家族、TanStack Start、Nuxt 3/4、Next.js 全覆盖;也支持自定义集成。
  • 开发态生效不注入生产包,默认仅 dev 模式启用。
  • 更像“后端日志”的前端日志:批量上报、sendBeacon文件:行:列 源信息、堆栈彩色终端输出
  • Vite 可选本地文件落盘(Next/Nuxt 默认 stdout)。
  • 开源 MIT,最近更新:当前最新 v0.0.6(2025-08-12)

  • 你在 Cursor / Claude Code 里修前端 bug,却看不到浏览器控制台
  • 需要把用户现场的前端异常,第一时间抛到终端(或文件),方便定位。
  • 本地复现困难,希望 AI 读日志→给 Fix PR 的闭环更顺滑。

Next.js(App Router)实战:安装与使用

Section titled “Next.js(App Router)实战:安装与使用”

下文以 Next 14/15 + App Router 为例。

Terminal window
# 任选包管理器
pnpm add -D @browser-echo/core @browser-echo/next
# 或 npm/yarn 等价命令

Browser Echo 的 Next provider@browser-echo/core 搭配使用。

默认 Next 的开发路由为:/api/client-logs。需要确保 导出 POST 处理器

推荐方式(使用官方处理器)

包内已提供处理器;根据版本可能导出路径略有不同,请以仓库 README 为准。

app/api/client-logs/route.ts
// 常见写法(示例);如果导出路径不同,请按 README 调整
export { POST } from '@browser-echo/next'

注意:一定要有这个路由,否则前端打点无处可投。

兜底方式(自定义极简处理器)

如果你想先跑通链路再替换为官方处理器,可先临时打印所有 payload:

app/api/client-logs/route.ts
export async function POST(req: Request) {
const body = await req.json()
console.log('[browser]', body) // 简单直打印;后续可替换为包内处理器
return Response.json({ ok: true })
}

关键:必须渲染 <BrowserEchoScript />

app/layout.tsx
import type { Metadata } from 'next'
import { BrowserEchoScript } from '@browser-echo/next'
export const metadata: Metadata = { title: 'My App' }
export default function RootLayout({ children }: { children: React.ReactNode }) {
return (
<html lang="en">
<head>
<BrowserEchoScript
options={{
// 路由默认为 /api/client-logs(Next)
// 也可自定义:route: '/api/client-logs'
include: ['warn', 'error'], // 降噪:只收警告与错误
stackMode: 'condensed', // 堆栈展示:none | condensed | full
showSource: true, // 打印 file:line:col
tag: '[browser]' // 终端前缀
}}
/>
</head>
<body>{children}</body>
</html>
)
}

这些 options 名称与默认值 来自官方文档的共享配置结构,Next/Nuxt/Vite 的 provider 会以插件参数或组件 props 的形式承载。

  • 启动本地 dev 服务器,终端会实时打印浏览器日志
  • Cursor / Claude Code 打开终端面板,让 AI 读取日志 → 生成修复
  • 没有任何日志:确认你已经导出 app/api/client-logs/route.tsPOST,以及 <BrowserEchoScript /> 已在 <head> 渲染。
  • 太吵:把 include 设为 ['warn','error']stackModecondensed
  • 生产可用性:provider 只在开发模式注入,不会污染生产包。如果你想在生产移除所有 console.*,使用构建工具的 strip 插件单独处理即可。

Datadog/Grafana 等 RUM/前端可观测提供线上环境的聚合指标与告警;Browser Echo 面向本地开发调试与 AI 协作,追求最快反馈终端可读性。两者并不冲突。


有了 Browser Echo,前端错误不再“卡在浏览器”。 终端一眼看穿问题,AI 一把就修。 装上它,你写前端的“闭环速度”,会明显更快。今天就把它加入你的 Next 项目里跑一圈吧。


Claude Code 的 Opus Plan Mode 更省钱更智能

Claude Code 的「Opus Plan Mode」规划用 Opus,执行用 Sonnet。把我们一直手动做的“Opus 想、Sonnet 干”做成了一键策略:复杂推理交给更强的 Opus,真正写改文件交给更省钱的 Sonnet

  • 在终端里输入 /model,菜单里能看到 Opus Plan Mode 选项;/status 可随时查看当前模型。
  • 进入/退出Plan ModeShift+Tab(多数终端是连按两次),在该模式下只做分析与计划,不会改文件或跑命令。
  • 需要真正落地实现,再退出 Plan Mode(快捷键或用 ExitPlanMode 工具)。
  • 官方定价:Opus 4.1 $15/$75(入/出百万 token),Sonnet 4 $3/$15Opus 约贵 5 倍。用它只做“思考/规划”,把代码生成交给 Sonnet,成本自然直降。
  • 另外,Claude Code 还有一个默认混合策略:先用 Opus 到一定配额,再自动切到 Sonnet(推荐默认)。这同样是“强度/成本”折中。
  • 陌生大仓分析 → 方案设计 → 分解任务:Plan Mode 里让 Opus 总结架构、列改造步骤与验收点,确认后再执行。Plan Mode 本身就支持“只分析不动手”。
  • 高风险改动(升级、重构、迁移):先让 Opus 写详细实施计划与回滚方案,再用 Sonnet 逐步实现。
  • 长流程 Agent:规划与执行解耦,成本更可控,也更接近“能长时间跑复杂任务”的代理形态。
  • 想让会话默认更安全:在设置里把 permissions.defaultMode 设为 plan,先计划、后执行。
  • /model 随时切换需要的组合(比如临时全程用 Opus 解决卡点)。
  • 重度使用者这阵子会遇到新的周度限额(主要针对 24/7 跑 Agent 的“鲸鱼”用法),规划阶段尽量把思路讲清、复用计划以减少无效推理。

一句话总结:Opus 负责“想清楚”,Sonnet 负责“干漂亮”。同等进度、更低花费,而且把“规划—执行”的节奏固化成了工作流。你这条感受很准,这确实把 Agent 又往“可长跑的复杂任务”推进了一步。

Claude Code 和 Cursor 写好用户画像需求文档

这篇是给会写代码、也会“写给 AI 看”的你。把需求说清楚,AI 才能少走弯路。一份好的“用户画像 + 需求故事”文档,就是 AI 的最佳提示词


你是不是也遇到过:跟 AI 说了半天,它还是“理解偏了”? 原因很简单——需求没被结构化

今天给你一份能直接塞进 Claude Code / Cursor 的用户画像需求文档。照着填,AI 基本不跑偏;加上 slash-command / .cursorrules,一键复用,全团队统一风格。 文末有多语标题封面与配图提示词朋友圈评论,直接拿去发。


一、为什么先写“用户画像 + 需求故事”?

Section titled “一、为什么先写“用户画像 + 需求故事”?”
  • 画像让人更“真实”:把用户的目标、痛点、动机写清,团队和 AI 都会少纠结。权威 UX 研究强调:画像要基于真实调研,不要拍脑袋
  • 故事让需求可落地:敏捷里常用“Persona + Need + Purpose”的用户故事写法,更容易驱动实现。
  • AI 需要明确指令:官方提示写法建议“清晰、具体、给例子”,效果稳定很多。

二、可直接复用的 Markdown 模板(拷走就能用)

Section titled “二、可直接复用的 Markdown 模板(拷走就能用)”

放到项目根目录 CLAUDE.md.cursorrules 所在目录旁,slash 命令直接引用。

# 用户画像需求文档(给AI看的)
## 1) 用户画像
- 名称:健身小白 / 28岁 / 一周3次健身
- 目标:3个月内减脂5kg
- 痛点:动作不标准、怕受伤、时间不固定
- 场景:下班晚、没有私教、想跟着短视频练
- 替代方案:随便刷视频、App里看动作库(但坚持不住)
> 画像基于访谈要点/历史数据(如有)
## 2) 5W1H + JTBD(要解决的“工作”)
- What:生成每周3次的“15分钟在家无器械”训练
- Who:上面这位用户画像
- When/Where:工作日晚 21:00,客厅
- Why:减脂 + 强化习惯
- How:AI 生成动作清单 + 演示链接 + 语音要点
- JTBD:我“雇用”这套训练来——在有限时间内安全完成一组有效的燃脂训练
## 3) 约束 / 非功能
- 设备:仅手机+瑜伽垫
- 安全:避免膝盖负担大动作
- 隐私:不上传视频
- 输出格式:Markdown 表格 + JSON(字段:动作/时长/要点/链接)
## 4) 示例(Few-shot)
- 示例输入:体力较弱、膝盖旧伤
- 示例输出:3动作×3轮,总时长 ≤ 15min;每个动作附“错误示范提醒”
## 5) 验收标准(Gherkin)
Feature: 生成在家燃脂训练
Scenario: 15分钟低冲击训练
Given 用户在“周一晚间”开始训练
When 请求“低冲击燃脂”计划
Then 返回3个动作×3轮,总时长≤15分钟
And 每个动作包含:名称/时长/要点/安全提醒/演示链接
And 生成Markdown和JSON两份输出
## 6) 优先级(MoSCoW)
- Must:低冲击、≤15分钟、Markdown+JSON
- Should:含演示链接
- Could:提供语音节拍
- Won’t:心率带联动(本迭代不做)

说明:

  • Gherkin 的 Given/When/Then 写法能让 AI 和测试都更“可执行”。
  • MoSCoW 用来控范围,防止需求膨胀。

三、把文档“接到” Claude Code / Cursor 上

Section titled “三、把文档“接到” Claude Code / Cursor 上”

1) Claude Code:用 Slash Commands 固化套路

Section titled “1) Claude Code:用 Slash Commands 固化套路”

把上面的模板拆成命令,比如 /spec persona-story。命令放 .claude/commands/*.md,支持命名空间与参数。

示例: .claude/commands/spec-persona.md

---
name: spec-persona
description: 生成“用户画像+5W1H+JTBD+Gherkin+MoSCoW”的需求文档
---
使用以下信息,补全并输出Markdown模板(保留标题),必要时提问补充:
- 用户画像:$ARGUMENTS
- 输出:中文;同时生成一个可复制的JSON骨架
- 风格:简洁,列表化,突出加粗关键字

进阶:把“写 Spec → 生成任务 → 提交 PR”串起来,官方实践里也鼓励用命令/工具把数据喂给 Claude

2) Cursor:用 Rules 让 Agent 遵守你的规范

Section titled “2) Cursor:用 Rules 让 Agent 遵守你的规范”

Cursor 官方建议“规则聚焦、可执行、分模块”,并把关键示例写进规则文件。

片段示例: .cursorrules

name: PersonaSpec
rules:
- "当我输入需求时,先生成《用户画像需求文档》,结构含:画像/5W1H+JTBD/约束/示例/Gherkin/MoSCoW。"
- "输出前必须给出Gherkin验收。"
- "范围控制遵循MoSCoW,默认排除Won’t项。"

Cursor 文档也明确了“意图上下文”与系统提示的作用,配合规则更稳。


  • 基于调研写画像,别凭想象。
  • 清晰/具体/给例子,必要时提供正反例
  • 故事化表达:采用“Persona + Need + Purpose”句式。
  • 验收先行:优先写 Gherkin,开发才不跑题。
  • 控范围:迭代用 MoSCoW,Must 写死,其它弹性处理。

五、两个实战小样(能直接丢给 AI)

Section titled “五、两个实战小样(能直接丢给 AI)”

场景 A:生成“退货工单”流程(电商后台)

Section titled “场景 A:生成“退货工单”流程(电商后台)”

用户画像

  • 客服专员;目标:3 分钟内完成退货审核
  • 痛点:信息分散、重复问买家

Gherkin 验收:

Feature: 退货工单
Scenario: 一次性收集齐证据
Given 买家提交退货申请
When 系统生成证据清单并引导上传
Then 客服可在单页查看凭证、订单详情、物流状态
And 审核通过/驳回均需一键模板回复

MoSCoW:Must=单页审核、模板回复;Should=常见原因自动判别;Won’t=本期不接三方仓 API。

场景 B:前端组件库升级清单(Cursor)

Section titled “场景 B:前端组件库升级清单(Cursor)”

需求故事: “作为前端负责人,我要把组件库从 v2 升到 v3,不改样式外观,这样我们能安全上线。”

验收 JSON(让 AI 照这个 schema 输出):

{
"breakingChanges": [{"component": "Modal", "action": "rename", "from": "isOpen", "to": "open"}],
"codemods": ["npx jscodeshift -t modal-open-codemod.js src/**/*.{ts,tsx}"],
"tests": ["Modal opens on button click", "Modal traps focus"]
}

  • 需求过大:切成可交付的“用户价值单位”;每个条目都可写 Gherkin。
  • 验收含糊:避免“看起来不错”“差不多”;用可被机器或人核对的条件+结果
  • 优先级失控:把“想要”塞进 Could,让 Must 保持可交付。
  • 画像想象化必须有依据(访谈/日志/历史工单)。

好文档不是写给老板或自己看的,而是写给 AI 和团队看的“执行说明书”。 把“画像 + 5W1H + JTBD + 约束 + 示例 + Gherkin + MoSCoW”串起来,Claude Code/Cursor 基本打不偏

你会先把哪个项目接入这套文档?你觉得呢?


terminalcp 让 Claude Code 像 Playwright 自动管理 Terminal 终端会话

一句话:terminalcp = 终端里的 Playwright。 让 AI Agent 能像人类一样启动、操作、读取任何命令行工具(LLDB/GDB、Python REPL、数据库 shell、甚至其他 AI CLI),还能你我随时接管同一会话


你可能已经把 Playwright/Browser 用在网页自动化上,那**命令行的“自动化控台”**呢? terminalcp 把“人类在终端里干的事”抽象成 MCP 工具:启动进程 → 输入按键 → 读取输出 → 多会话管理,还支持 Socket 附着,方便你实时旁观或接管 AI 的操作。


1)真·交互式控制 不是简单执行一条命令就退出,而是持续会话:可在 LLDB/GDB 里单步、在 REPL 里试代码、在 vim/htop 这类 TUI 里看“完整屏幕”。

2)两种输出模式,按需选择

  • Terminal 模式(stdout):拿到渲染后的“屏幕缓冲区”,适合调试器、TUI。
  • Stream 模式:拿到原始文本流(默认剥离 ANSI),还能增量读取 since_last,盯构建/日志更高效。

3)高拟真 PTY 进程运行在伪终端里,保留颜色/光标移动/特殊按键序列,等同人手操作;并且后台管理多个进程,Agent 不被阻塞。

4)Socket 附着:人机协作的关键一环 每个进程自动生成 Unix 域套接字。你可以 attach 到 AI 已开的会话里共同看屏、共同操作,随时救火。

5)比 screen/tmux 更“AI 友好”

  • 结构化响应(JSON),不是只给一堆文本。
  • 干净输出(可剥离 ANSI),更好喂给 LLM。
  • 增量读取生命周期管理(退出码等)一站式搞定。

安装与快速上手(MCP 客户端通用)

Section titled “安装与快速上手(MCP 客户端通用)”

标准配置(多数工具通用) 在你的 MCP 客户端里增加 server:

{
"mcpServers": {
"terminalcp": {
"command": "npx",
"args": ["@mariozechner/terminalcp@latest"]
}
}
}

Claude Code(CLI)

Terminal window
claude mcp add -s user terminalcp npx @mariozechner/terminalcp@latest

Cursor Settings → MCP → Add new MCP Server Name: terminalcp,Type: command,Command: npx @mariozechner/terminalcp@latest

VS Code(含 Copilot Agent)

Terminal window
code --add-mcp '{"name":"terminalcp","command":"npx","args":["@mariozechner/terminalcp@latest"]}'

安装后可直接被 VS Code 的 GitHub Copilot Agent 使用。

Windsurf / 其他 MCP 客户端 按其 MCP 文档使用上述“标准配置”,或先全局安装:

Terminal window
npm install -g @mariozechner/terminalcp

然后配置:

{
"mcpServers": {
"terminalcp": { "command": "terminalcp" }
}
}

需求:Node.js ≥ 18;任一支持 MCP 的客户端(VS Code、Cursor、Windsurf、Claude Desktop、Goose 等)。


原理:terminalcp 暴露单一 MCP 工具 terminal,通过 JSON 指令操控会话:start / stdin / stdout / stream / stop / list / term-size

典型工作流 A:让 Claude 控制另一个 AI CLI

Section titled “典型工作流 A:让 Claude 控制另一个 AI CLI”

1)启动 Claude/Gemini 等 CLI(注意使用绝对路径,别名不生效):

{"action":"start","command":"/Users/you/.claude/local/claude --dangerously-skip-permissions"}
{"action":"start","command":"gemini","cwd":"/path/to/project"}

2)发送输入(自动回车):

{"action":"stdin","id":"proc-123","data":"Write a test for main.py","submit":true}

3)读取完整屏幕(适合 TUI/调试器界面):

{"action":"stdout","id":"proc-123"}

4)清理进程

{"action":"stop","id":"proc-123"}

别名无效、交互 CLI 建议 submit:true、完成后记得 stop。

典型工作流 B:盯构建/日志(增量)

Section titled “典型工作流 B:盯构建/日志(增量)”
{"action":"start","command":"npm run build"}
{"action":"stream","id":"proc-456","since_last":true}
{"action":"stream","id":"proc-456","since_last":true}

默认剥离 ANSI,必要时 strip_ansi:false 保留颜色码。

Python REPL

{"action":"start","command":"python3 -i"}
{"action":"stdin","id":"proc-456","data":"import numpy as np","submit":true}
{"action":"stdout","id":"proc-456"}

LLDB

{"action":"start","command":"lldb ./myapp"}
{"action":"stdin","id":"proc-789","data":"break main","submit":true}
{"action":"stdin","id":"proc-789","data":"run","submit":true}
{"action":"stdout","id":"proc-789"}

团队协作王牌:Socket 附着(像 tmux,但更聪明)

Section titled “团队协作王牌:Socket 附着(像 tmux,但更聪明)”

AI 启动进程时命名:

{"action":"start","command":"python3 -i","name":"python-debug"}

从你本地终端查看并附着:

Terminal window
terminalcp ls
terminalcp attach python-debug
# 或:terminalcp attach proc-abc123
  • 直接在你的终端里一起操作
  • Ctrl+Q 分离,会话不退出;
  • 支持多人同时附着
  • 套接字路径位于 ~/.terminalcp/sessions/

和 screen/tmux 的核心差异(实测更适配 AI)

Section titled “和 screen/tmux 的核心差异(实测更适配 AI)”
  • 有结构化响应:JSON 返回,Agent 易解析。
  • 可靠拿输出stdout 给你“渲染后的屏幕”,stream 支持只取新增
  • 少污染:默认剥离 ANSI 控制码,避免“转义序列淹没上下文”。
  • 状态感知:能感知进程退出/错误码;
  • 无需猜时序:不用 sleep 等待“也许完成了”。 tmux/screen 想“模拟”这些能力,很费力也不稳。

  • 用绝对路径启动 CLI(比如 Claude CLI),别名不生效。
  • 交互命令行结合 {"submit":true},或分两条:文本 + \r
  • 长任务用 stream+since_last,避免重新拉全量日志。
  • 会话命名 + Socket 附着,便于协作救场。
  • 完成后显式 stop;MCP 退出会自动清理残留进程。
  • 许可证 MIT,可安全融入你的内部工具链。

如果你在做 AI 辅助开发 / 内部 DevTool / AIOps,terminalcp 能把“终端上的一切”变成可编排的 API:Agent 掌控、人与 Agent 协作、自动化与可视化并存。从今天起,让 AI 不只会“调用命令”,而是真的会“用终端”

你会先把它接到哪个场景? 构建日志、内核调试、线上排障,还是把 Claude/Gemini 变成可控的“子 Agent”?你觉得呢?


MCP 标准配置(多数客户端通用)

{
"mcpServers": {
"terminalcp": {
"command": "npx",
"args": ["@mariozechner/terminalcp@latest"]
}
}
}

Claude Code CLI

Terminal window
claude mcp add -s user terminalcp npx @mariozechner/terminalcp@latest

VS Code CLI

Terminal window
code --add-mcp '{"name":"terminalcp","command":"npx","args":["@mariozechner/terminalcp@latest"]}'

全局安装(可选)

Terminal window
npm install -g @mariozechner/terminalcp

Claude Code 管理你工作生活上的日记与反思

在 AI 快节奏的工作与生活中,我们常常忙于应付眼前的事务,却很少停下来审视自己的状态与方向。 如果每天只花一点时间,记录心情、总结收获、规划明天,再让 Claude Code 帮你分析趋势、发现模式、给出温柔建议,会不会让你的每一天更有掌控感?

一套可直接落地的 Claude Code 配置:含目录命令、/daily-checkin 自定义 Slash Command,以及配套 subagent(按官方文档位置放在 .claude/agents/ 而不是 .claude/subagents/)。我也顺手加了前言区(frontmatter)和允许的工具,确保能读写你的日记文件并在需要时跑点 Bash。参考依据见注释处。


Terminal window
mkdir -p .claude/commands
mkdir -p journal/daily

这是你将要通过 /daily-checkin 触发的命令文件。 说明:支持 $ARGUMENTS(若你想传备注/标签),并允许 Read/Write/Glob/Bash 工具用于读写与简单 shell。

---
description: A personal daily reflection and planning system that saves entries and triggers analysis.
argument-hint: [optional-notes]
allowed-tools: Read, Write, Glob, Bash
model: claude-sonnet-4-20250514
---
# Daily Check-in
A personal daily reflection and planning system.
## Process
1) First, understand the user's context:
- If present, read `CLAUDE.md` (project memory) to personalize greeting and understand current work focus.
- Skim any obvious personal/business context files (e.g., README, docs, roadmap) only if quickly helpful.
2) Greet warmly and ask:
🌅 **Daily Check-in for {{today}}**
Good {{timeofday}}! Let's reflect on your day.
1. How are you feeling today? (1–10 + brief description)
2. What are 3 things you accomplished today? (big or small)
3. What's your #1 priority for tomorrow?
4. Energy level: (1–10)
5. Any challenges or blockers you faced?
6. What are you grateful for today?
7. Any other thoughts or reflections?
3) After gathering all answers:
- Save **verbatim** to `journal/daily/{{today}}.md`
- File format:
```
# Daily Check-in — {{today}}
## Mood
* Score: X/10
* Notes: ...
## Energy
* Score: X/10
* Notes: ...
## Accomplishments (3)
* ...
* ...
* ...
## Tomorrow's #1 Priority
* ...
## Challenges/Blockers
* ...
## Gratitude
* ...
## Other Thoughts
* ...
```
4) Then launch the **daily-reflection** subagent to analyze:
- Provide today's Q&A content
- Also reference the last **3** days of entries if available:
`journal/daily/{{today-1}}.md`, `journal/daily/{{today-2}}.md`, `journal/daily/{{today-3}}.md`
**Subagent prompt to send:**
> Analyze today's check-in (full text below) and the last 3 days if present.
> Generate:
> 1) Mood and energy patterns
> 2) Accomplishment momentum score
> 3) Insights about productivity patterns
> 4) Gentle suggestions for tomorrow
> 5) Weekly trend if enough data
> 6) Celebration of wins (however small)
>
> Then create a **visual summary** (ASCII/markdown charts) and return a complete markdown report.
5) Save the subagent’s final report to:
- `journal/daily/{{today}}-reflection.md`
6) Tone:
- Encouraging, empathetic; focus on progress over perfection.
## Implementation Notes
- Use `Read`/`Write` to access `journal/daily/*.md`.
- Use `Glob` to find the previous 3 entries.
- Use `Bash(date:*; ls:*)` if needed to resolve dates/list files quickly.

这是被 /daily-checkin 触发的分析 subagent。位置与结构基于官方“Subagents”文档(name/description/tools 前言 + 系统提示)。

---
name: daily-reflection
description: Thoughtful life coach & personal development analyst for daily check-ins. Use to analyze today's entry plus last 3 days, then produce patterns, suggestions, and a celebration of wins.
tools: Read, Write, Glob
model: claude-sonnet-4-20250514
---
# Daily Reflection Analyst
You are a thoughtful life coach and personal development analyst specializing in daily reflection and growth patterns.
## Your Role
Help track well-being, productivity, and personal growth through insightful analysis of daily check-ins.
## Analysis Capabilities
### 1) Mood & Energy Patterns
- Track mood trends over time
- Identify energy peaks and valleys
- Correlate mood with accomplishments
- Spot early warning signs of burnout
### 2) Visual Elements
Create simple ASCII/markdown visuals such as:
**Mood Trend (Last 7 Days)**
Mon Tue Wed Thu Fri Sat Sun
7 8 6 9 7 8 ?
**Energy Levels**
[████████░░] ~80% average this week
### 3) Output Format
#### 📊 Today's Snapshot
- Mood: X/10 [emoji] (description)
- Energy: X/10 ⚡ (description)
- Wins: X ✅ (momentum status)
#### 📈 Patterns Noticed
- What's working well
- Gentle observations
- Correlation insights
#### 🎯 Tomorrow's Focus
- Gentle suggestions
- Energy optimization tips
- Celebration of progress
### 4) Analysis Guidelines
- Be encouraging and empathetic
- Focus on patterns over individual days
- Celebrate small wins
- Provide gentle, actionable suggestions
- Use positive, growth-oriented language
### 5) Output Structure (Markdown)
1. **Today's Summary** — Key metrics and mood
2. **Pattern Analysis** — Trends and insights
3. **Tomorrow's Focus** — Gentle suggestions
4. **Weekly Progress** — If enough data exists
5. **Celebration** — Acknowledge wins
## I/O Contract
**Inputs (from caller):**
- Today's full check-in text (required)
- Up to last 3 days’ entries (optional if exist)
**Process:**
- Parse numeric mood/energy if provided; estimate gently if qualitative only
- Compute a “momentum score” from count/consistency of wins
- Derive 2–4 concise, actionable suggestions for tomorrow
- Build 1–2 simple visuals
**Outputs:**
- Return a single, well-formatted markdown report.

  • 进入 Claude Code 交互界面,输入:/daily-checkin(或 /daily-checkin 备注标签)。
  • 命令会向你发起问答,保存 journal/daily/YYYY-MM-DD.md,随后自动调用 daily-reflection 生成并保存 journal/daily/YYYY-MM-DD-reflection.md
  • 若你想把命令设为“用户级”而非项目级,也可以将命令文件放到 ~/.claude/commands/(同理,subagent 放到 ~/.claude/agents/)。

ZCF 一键把 Claude Code「配齐」全套的开发工作利器

关键词:零配置安装、交互式菜单、CCR 路由、省钱用模态、BMAD 团队工作流、Git 命令集

装 Claude Code,导入工作流,配 API/MCP,设置个性和默认模型……手工一步步配,既枯燥也容易出错。 **ZCF(Zero-Config Claude-Code Flow)把这一切打包成“一键装好、开箱可用”。**支持中英文、交互式菜单、企业级工作流、CCR 省钱路由,几分钟就能把开发环境跑顺。

  • 零配置 + 一键初始化npx zcf 打开交互式菜单,选 1 就能完成:安装 Claude Code、导入工作流、配置 API 或 CCR、配置 MCP。适合新机器/新成员快速拉起环境
  • 交互式菜单超直观:菜单覆盖 配置 API/CCR、MCP、默认模型、AI 个性 等常用项;还内置 CCR 管理、使用统计(ccusage)
  • CCR(Claude Code Router)省钱路由:按类型把请求分流到不同模型,能通过 Claude Code 界面调起 Gemini、DeepSeek 等“免费/低价模型”,还带 Web UI 与一键升级。
  • BMAD 企业工作流:内置产品、项目、架构、研发、测试等多角色代理,支持绿地/存量项目,能自动生成文档,/bmad-init 一键初始化。
  • 实用 Git 命令集/git-commit 智能提交、/git-rollback 安全回滚、/git-cleanBranches 清理分支。把常用 Git 操作流程化

以上能力在项目 README 的 Quick Start、CCR、BMAD、安装流程和安装项清单里都有明确说明与示例。

Terminal window
# 方式A:交互式菜单(推荐)
npx zcf
# 方式B:直达一键装好
npx zcf i # 安装 Claude Code + 导入工作流 + 配 API/CCR + 配 MCP
# 已安装 Claude Code,仅更新工作流
npx zcf u
# 打开 CCR 管理(省钱路由)
npx zcf ccr
# 使用统计(ccusage)
npx zcf ccu

**菜单里会让你选择:配置语言、AI 输出语言、AI 个性、鉴权方式(Auth Token 或 API Key)、是否使用 CCR、是否安装 MCP。**全程有备份与合并策略,安全不慌。

  • npx zcf i 完整初始化 → claude 启动后输入 /init 自动生成 CLAUDE.md,让 AI 先读懂你的项目骨架。
  • 小任务直接写自然语言描述即可;遵循 SOLID/KISS/DRY/YAGNI 的最小变更策略。
  • /feat <任务>:自动进入规划 → UI两阶段,适合有页面/交互的需求。
  • /workflow <任务>:给出多种解法、每步都征求你反馈、可随时改计划,可控性更强
  • /bmad-init 拉起 BMAD 团队工作流,定义角色、质量门禁、文档产出,适合多人并行与遗留系统治理。
  • npx zcf ccr 配好 CCR:

    • 规则路由“检索/改写 → 便宜模型”,“核心实现/评审 → 强模型”。
    • npx zcf check-updates 一键升级 CCR 与 Claude Code。
  • /git-commit/git-rollback/git-cleanBranches 把 Git 操作流程化,减少手误,回滚更安心。

  • 个人开发者:一台新电脑,三分钟搭完 AI 开发栈。
  • 小团队/外包协作:统一配置与工作流,成员加入即开工
  • 中大团队/ToB 项目:BMAD 多角色 + 质量门,过程可控、文档齐全

  • 语言与个性:菜单里可设 AI 输出语言Assistant 个性(Professional、Friendly 等),能明显影响沟通风格与结果质量。
  • MCP 服务:可选 Context7、DeepWiki、Playwright、Exa 等,按需开,避免无谓开销。
  • Windows / Termux 也稳:ZCF 做了平台适配与格式修复逻辑,命令检测也更稳。

ZCF 把“装配置、理工作流、控成本”这些琐事一把梭。 想象一下:新成员入职,npx zcf i,喝口水回来,项目就能跑。 你觉得最想先用哪一段?CCR 省钱路由还是 BMAD 团队工作流?欢迎在评论区聊聊。

Claude Code 套娃使用 Cursor Agent GPT-5 模型

把 Claude Code 当“调度中心”,用自定义 slash command 把任务转给 Cursor Agent CLI,直接用 GPT-5 在本地动手改代码、跑命令、回报结果。

GPT-5 是目前 OpenAI 最强编码模型**,在真实工程场景、长链路代理任务上都有提升;并且官方明确了它在 Cursor、Windsurf、GitHub Copilot、Codex CLI 等“代理式编码”产品里的协作优势。Codex CLI 也把 GPT-5 设为默认/推荐模型。


截图是一段位于 .claude/agents/gpt-5.md 的配置:

  • name: gpt-5,描述这位“子代理”适合深度研究、二次意见、修 Bug。
  • tools: Bashmodel: sonnet
  • 系统提示语把它定位成“资深架构师”。
  • 里面示例了一条命令:cursor-agent -p "TASK and CONTEXT",跑完再把结果回报给用户。

这就是“Claude 负责编排,实际动手交给外部 Agent(Cursor)”的套路。


它本质是“Markdown 里的常用指令”,保存在项目或个人目录,随时用 /名字 参数 触发。

  • 存放位置:项目级 .claude/commands/,个人级 ~/.claude/commands/。文件名就是命令名。
  • 可带 Frontmatterdescriptionmodelargument-hintallowed-tools 等。
  • 支持把 Bash 输出 注入上下文:用 ! 前缀执行,如 ! git status要在 frontmatter 里声明允许的 Bash 命令
  • 支持 $ARGUMENTS 占位传参、@文件引用、名字空间(子目录形成 /frontend:build 这种)。

用途:把“装配、拉代码、跑测试、生成补丁”交给外部 CLI 执行,Claude 做协调与总结。官方文档明确支持这类工作流。


  • 安装 Cursor Agent CLI
    curl https://cursor.com/install -fsS | bash
    需要时可用 --model "gpt-5"

将以下内容保存为 .claude/commands/cursor-gpt-5.md

---
name: gpt-5
description: Use this agent when you need to use gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
tools: Bash
model: sonnet
---
You are a senior software architect specializing in rapid codebase analysis and comprehension. Your expertise lies in using gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
Run the following command to get the latest version of the codebase:
```bash
cursor-agent -p "TASK and CONTEXT"
```
Then report back to the user with the result.

在 Claude Code 中使用 /cursor-gpt-5 命令,Claude 会自动识别并调用相应的子代理进行处理。

> /cursor-gpt-5 <TASK and CONTEXT>

让 Claude 当“总导演”,把执行交给 Cursor GPT-5
你要做的,就是把目标讲清楚,让它跑完、复盘、交付。

AI 产品推荐榜(截至 2025/8/9):这 25 款最值得你马上上手

这篇是给做产品、写代码、做设计的你写的上手清单。 我把最新一版「AI 产品推荐榜」按用途场景拆开,每一类只说为什么选它 + 怎么用它。 别担心长篇报告,看完就能直接用。

  • 写方案/带团队:GPT-5 / Claude Opus 4.1
  • 设计物料:Midjourney + Ideogram(排字)+ Recraft(矢量)
  • 广告/玩法视频:Sora / Veo 3 / Runway Gen-3
  • 配乐/歌声:Suno 4.5+ / Eleven Music
  • 字幕/会议纪要:Whisper → Dify 工作流
  • 多模型接入:OpenRouter + Replicate/Fal
  • 自动化:n8n / Coze / Opal
  • 本地推理/私有化:DeepSeek-R1、Wan 2.2、olmOCR

引言:今年的 AI 怎么“上手更快、回报更高”?

Section titled “引言:今年的 AI 怎么“上手更快、回报更高”?”

两句结论:

  • 通用大模型更强:GPT-5、Claude Opus 4.1、Qwen3、Kimi K2 等在推理、前端生成与 Agent 任务上明显提升。
  • 垂直工具更成熟:视频(Sora、Veo 3、Runway Gen-3)、音乐(Suno 4.5+、Eleven Music)、设计(Midjourney、Ideogram、Recraft)已经够稳、够快、够好看

通用大模型(做难题、带项目、当“脑暴合伙人”)

Section titled “通用大模型(做难题、带项目、当“脑暴合伙人”)”

1) GPT-5(首选) 前端/多模态编码能力很猛,能一把生成可上线的响应式界面,对排版与留白的审美更准。更适合把“草图想法”直接变成能点能点的页面/小站

  • 上手建议:给出 Figma 截图 + 交互说明,要求输出 Next.js + Tailwind + shadcn/ui 可运行项目。

2) Claude Opus 4.1(代码与 Agent 任务) 强化真实世界编码与多步骤推理;在 Claude Code 里可直接跑工作流,适合“先规划、再执行”的工程流。

3) Qwen3(中文生态 + 本地/云灵活) 旗舰模型在代码、数学和通用能力上对齐一线水准;阿里生态下易接入企业应用

4) DeepSeek-R1(性价比与开源氛围) 公开权重/许可更友好,强化RL 推理,适合做低成本自建推理服务与蒸馏。

5) Kimi K2 / GLM-4.5 / Grok 4(特色补位)

  • K2:大规模 MoE、长文本与工具调用增强;中文场景顺手。
  • GLM-4.5:官方强调推理、代码与 Agent场景。
  • Grok 4:原生工具使用 + 实时搜索场景强。

想在本地做实验?关注 OpenAI 发布的 GPT-OSS-120B/20B 开源权重,适合高端本地机推。


文生图(做海报、KV、Logo、社媒物料)

Section titled “文生图(做海报、KV、Logo、社媒物料)”

Midjourney:质感与风格化第一梯队,连细节光影都稳。 Ideogram排版/文字可读性强,做 KV、Banner、海报标题很省心。 Recraft:一键出可编辑矢量与扁平插画,品牌一致性好维护。 Qwen-Image中文文本渲染精修编辑能力强,适合国内场景。 Imagen(Google):写实度、排字与安全水印做得更全。

  • 实用提示:给 3 条风格线 + 1 条禁忌线(如“不要过度锐化”),要求出分层 PSD/SVG 便于后期。

文生视频(广告剪辑、应用商店预告、玩法演示)

Section titled “文生视频(广告剪辑、应用商店预告、玩法演示)”

Sora:画面质感 + 物理一致性强,已可生成20 秒 1080p并支持二次编辑。适合概念片/玩法演示Runway Gen-3提示对齐与运动连贯更稳,商业可用度高。 Luma Dream Machine(Ray2):运动摄影视觉出片快,订阅内即可用Veo 3(Google):原生音频、口型同步和图生视频能力上线到 Gemini/Vertex。 Wan 2.2:国内外开源可玩度高,适合本地/云混合部署探索。

  • 落地建议:把脚本拆成镜头表(景别/时长/主体/镜头运动),逐镜生成,再用 Runway/CapCut 拼接。

AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)

Section titled “AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)”

Suno v4.5+:多风格融合、声线更真实,新增“加人声/加伴奏/Inspire”等制作级功能。 Eleven Music全文商用定位+与 Merlin/Kobalt 的授权合作,适合品牌与商业视频配乐。 Udio:人声情感细腻、易上手,做抖音/YouTube素材很快。

  • 工作流:先用 Suno/Eleven 给 Demo,锁定BPM/情绪曲线后再迭代歌词与配器。

语音合成 & 识别(旁白/配音/字幕/笔记)

Section titled “语音合成 & 识别(旁白/配音/字幕/笔记)”

ElevenLabs TTS:70+ 语言、情感控制细腻,有成熟 API。 Whisper:开源 ASR 老将,生态有 whisper.cpp / faster-whisper 等高性能实现;低成本本地化首选。

高风险行业(医疗/法务)请人工校对,避免误识问题。


开发者工具(写代码、跑代理、接多家模型)

Section titled “开发者工具(写代码、跑代理、接多家模型)”

Claude Code:复杂任务规划-执行-复盘一条龙,用“结构化对话”推进交付。 Cursor / Copilot / Windsurf:日常增量开发与多文件重构体验更成熟。 Trae / Kiro / Gemini CLI:团队协作、移动端或命令行工作流的轻量替代可考虑。 OpenRouter / Replicate / Fal:一个入口连多家模型 & 各类生成服务,适合成本/性能动态路由

  • 落地套路:前台用 Cursor/Claude Code,后台接 OpenRouter多模型路由,图片/视频特殊任务走 Replicate/Fal

Agent & 工作流(把“人肉流程”自动化)

Section titled “Agent & 工作流(把“人肉流程”自动化)”

Dify(自建/企业就绪):可视化Agent 工作流 + RAG + 观测,云端/本地都能跑。 n8n:AI 节点 + 400+ 集成,把 CRM/工单/数据库串起来;有大量模板。 Coze零代码搭 Bot/小助手,国内团队易推广到多平台。 Opal(Google Labs):用自然语言拼迷你 AI 应用/流程,适合产品经理做快速原型


OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)

Section titled “OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)”

olmOCR(AI2):表格/公式/手写支持,阅读顺序保持好;可本地部署。 MonkeyOCR:提出 **SRR(结构-识别-关系)**范式,速度快、版面理解强OCRFlux:轻量 3B,多页合并与复杂版式处理出色;有在线 Demo 与 GGUF。

  • 工作流建议:PDF →(olmOCR/MonkeyOCR)→ Markdown →(Dify/Agent)做结构化抽取 + 知识库

别把这篇当收藏夹。 挑一个场景 + 一个模型,今天就跑一条小链路。 一周后再加一个环节,就是你的专属 AI 生产线

你最想先落地哪一条?留言告诉我。

GPT-5 AI 前端 Web 开发最佳推荐

如果你准备在前端用上 GPT-5,我强烈推荐这套组合——Next.js(Typescript) + Tailwind CSS + shadcn/ui + Radix + Motion +(Material Symbols / Heroicons / Lucide)+ Inter/Geist/Mona Sans/IBM Plex Sans/Manrope 字体。 这套栈,既「稳」、又「快」,还非常适合让 GPT-5 发挥长上下文和新语料的优势。GPT-5 官方给了40 万 tokens 总上下文(输入 27.2 万 + 输出/思考 12.8 万),更能装下整页需求、组件库 API、样式约定和长代码段,对 TS / CSS / HTML 的跟手度明显更好


  • 装得下:40 万上下文,复杂页面+接口协议+设计规范塞进去,模型还能持续跟踪状态,少「丢线」。
  • 更像合作者:官方强调「思考内置」,在复杂任务上规划更清晰,适合让它「一口气」起项目骨架、再细化组件。
  • 更懂代码:我自己的体感是TS、CSS、HTML 输出干净利落,命名更统一、原子类更收敛,PR review 压力小。

1)框架与语言:Next.js + TypeScript

Section titled “1)框架与语言:Next.js + TypeScript”
  • 理由:Next.js 原生支持 TS,零配置起步,目录清晰,服务端/客户端组件切换自然。对 GPT-5 来说,约束越清晰,生成就越稳
  • 实践:把 tsconfig.jsoneslint 规则、app 目录示例都丢给 GPT-5,让它按你的约定起脚手架,后续都围绕同一规范补齐。

2)样式/UI:Tailwind CSS + shadcn/ui + Radix

Section titled “2)样式/UI:Tailwind CSS + shadcn/ui + Radix”
  • Tailwind:原子类语义稳定,便于 GPT-5 组合和复用;需要个别值时,方括号语法很好用。
  • shadcn/ui:不是黑盒库,而是可复制到仓库里的组件源码;这点对 AI 生成/重构特别友好,GPT-5 能直接在你的代码里改。
  • Radix Primitives:可访问性打底、可组合的低阶组件。配合 shadcn 主题层,既省心又可深度定制

小招:把你的配色、圆角、阴影等设计约束整理成「Tailwind 主题配置 + shadcn 组件清单」,让 GPT-5 先读再写,它会按你的语义风格输出统一的 UI。

3)图标:Material Symbols / Heroicons / Lucide

Section titled “3)图标:Material Symbols / Heroicons / Lucide”
  • Material Symbols:字体打包、接入简单,快速铺开整站图标。
  • Heroicons:Tailwind 团队出品,React/Vue 直接用,和原子类搭配顺手。
  • Lucide:覆盖面广,按需引入、Tree-shaking 友好。

小招:把你要用的图标「白名单」给 GPT-5,比如只用 Plus, Trash, ChevronDown,它会稳定地复用同一套,避免“图标风格跑偏”。

4)动效:Motion for React(原 Framer Motion)

Section titled “4)动效:Motion for React(原 Framer Motion)”
  • 组件化 API、性能好,和 Radix/基础 HTML 元素衔接自然。GPT-5 生成的动效代码可读性强,后续自己也能接手改。

5)字体:Inter / Geist / Mona Sans / IBM Plex Sans / Manrope

Section titled “5)字体:Inter / Geist / Mona Sans / IBM Plex Sans / Manrope”
  • Inter:UI 友好、可读性强,作为正文默认非常稳。
  • Geist:Vercel 出品,现代、干净,和 Next.js 视觉很搭。
  • Mona Sans:GitHub 出的可变字体,力量感适合标题。
  • IBM Plex Sans / Manrope:多语种/风格覆盖好,免费可商用。

一套「让 GPT-5 超发挥」的协作玩法

Section titled “一套「让 GPT-5 超发挥」的协作玩法”

需求文档 + 设计规范 + 组件清单 + 路由/数据模型整理成一个长上下文输入,GPT-5 的 40 万窗口吃得下,减少来回问答

B. 让它“先搭骨架、再填血肉”

Section titled “B. 让它“先搭骨架、再填血肉””

示例提示词要点:

  • “用 Next.js App Router + TS 起项目骨架,页面:/、/login、/dashboard; 组件基于 shadcn/ui,表单用 Radix 的 Dialog;样式只用 Tailwind 原子类。”

这样它会先列目录结构、组件清单、接口协议,二次对话再让它补单元测试、动效和图标替换。

tailwind.config.ts(颜色、半径、间距)和可复用类名约定交给 GPT-5,它会持续按你的口味输出,不会越写越花。

要求 GPT-5 把每个组件自动补 README / 用法示例 / 可访问性说明。Radix 的语义很适合它总结。


迷你实操(可让 GPT-5 直接生成/改写)

Section titled “迷你实操(可让 GPT-5 直接生成/改写)”
Terminal window
# 新项目
npx create-next-app@latest my-app --ts
# 安装样式与组件
npm i -D tailwindcss postcss autoprefixer
npx tailwindcss init -p
# shadcn/ui
npx shadcn@latest init
npx shadcn@latest add button input dialog
# Radix + Motion + 图标
npm i @radix-ui/react-dialog motion lucide-react

把以上命令、tailwind.config.ts、你的品牌色和圆角半径贴进 GPT-5,对它说:“按我的配置,生成一个登录页 + 仪表盘 + 顶部导航 + 侧边栏,交付 TSX + Tailwind 原子类,不要行内样式;图标只用 Lucide 的 LogIn, Settings, User。”


  • 样式失控:让 GPT-5 固定三层 spacing(如 8/12/16)和两级阴影,Tailwind 原子类就不会炸。
  • 组件风格不统一:用 shadcn 模板 + Radix 交互 作“唯一真源”,GPT-5 直接在源码里改最稳。
  • 图标东一榔头西一棒槌:提前给图标白名单,并在提示里强调“只用这些”。

一句话总结: 用规则喂养 GPT-5,它就会用规则反哺你的前端工程。 长上下文+清晰工程栈,这代模型在前端的「生产力与创新」都已经能打。你不需要它替你“写一切”,你只需要它把脏活累活标准化,你继续做审美与取舍

你觉得这套栈里,哪个环节最能省你时间?评论区聊聊你的实践。

Gemini Storybook 支持中文配音,PDF下载打印就能成漫画书

一句话版本:Gemini 的 Storybook 新功能上新了——支持中文朗读多风格插画可选网页直接打印/导出 PDF,做一本孩子专属绘本,不到 1 分钟。


你是不是也有这种瞬间:临睡前,孩子突然想听“恐龙超人去火星”;家里抽屉塞满了小朋友的画,舍不得丢。 Storybook 把这些灵感一键变成 10 页插画故事 + 语音朗读,还能把孩子的照片、手绘一起“收编”进画面里。


官方已上线**“朗读(read-aloud)”,并说明支持语言会逐步扩展;媒体报道与实测显示中文已可用**,家长能直接听中文讲故事。效果自然流畅,适合床边故事。

要点:45+ 语言覆盖(文本与音频),移动端与网页端均可用。


想水彩、动漫、像素、橡皮泥、涂色书?一句话换风格,还能上传孩子的照片或手绘,当作灵感生成插图。角色名、场景细节也能随时改,再生成新版本。

官方举例:从“讲太阳系”到“讲搬家”,教育场景同样适用。


每本故事都能生成分享链接;网页端直接打印。实际操作里,打印为 PDF 就能得到可直接去打印店出纸的文件。


  1. 打开 Gemini,发起对话: “帮我做一本《胆小恐龙学跳舞》故事书,画风水彩,适合 5 岁。”
  2. 加料:上传孩子画的恐龙/照片,指定主角名字、小怪兽爱吃什么。
  3. 微调:让它“更搞笑一点”“把风格换成动漫”,生成新版本;点朗读直接播放。

  • 睡前 10 分钟:把“今天在幼儿园的小冲突”,改写成和解冒险故事。
  • 知识小课:用“涂色书风格”讲清“太阳系/垃圾分类/交通安全”。
  • 纪念册:把旅行照片/家庭合影,串成“我们在济州的奇遇记”。

  • 朗读语言:官方注记“朗读目前仅在部分语言开放”,若没看到按钮,换语言或等更新。
  • 角色一致性:AI 插画偶尔“离谱”,比如角色细节前后不一。用照片/重复强调设定能明显改善。
  • 分享权限工作/学生账号可能不能分享公开链接;用个人账号最稳。

  • 门槛降到“开口即创作”:家长、老师、创作者都能把想法快速落地。
  • 陪伴质量更稳定:忙碌时有“AI 讲读”,有空时再亲自读,灵活切换。
  • 风格量级自由:从像素风橡皮泥,再到孩子亲笔画个性化强

Storybook 把“讲一个好故事”的门槛,降到了“说一句话”。 中文能听、风格能玩、打印能带走。你负责想,它负责把故事装订成爱。 你会先做哪一本?留言告诉我你的第一个主题

GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结

结论先说:**GPT-5 适合做规划、结构化设计与评审总结协作;Claude Code(Sonnet / Opus)更稳于“动手执行、缝合改造”。**实际落地,用“GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结”的组合,效率更高、翻车更少。你觉得呢?


昨晚看完发布会,我的第一反应是:GPT-5 不只是更快更准,它更会“想”了。官方把“最小化推理(minimal reasoning)”和“verbosity 冗长度”做成了可控参数,还把上下文做到 40 万 tokens、单次最多输出 12.8 万,并且把 Gmail/Google Calendar 等连接器直接塞进 ChatGPT 里,团队用户今天就能用,企业与教育版 8 月 14 日跟上。

媒体给的关键词也很一致:更少幻觉、更强编码、更“像专家”;但也有提醒——宣传图表翻车,别迷信厂商曲线,要看独立评测与真实项目。


  • 可控的“思考力度”:API 里新增 reasoning_effort="minimal",能在不牺牲太多质量的情况下更快给结果;verbosity 控制回答长短与信息密度。对工程同学,这俩就是速度/质量旋钮

  • 更长的“工作记忆”40 万上下文(约 272k 输入 + 128k 输出),更靠谱的长文档/长链工具调用。

  • 价格公开输入 $1.25 / 百万 tokens,输出 $10 / 百万;mini、nano 更便宜。

  • 工具链协作:官方宣称在复杂工具调用上显著提升(τ²-bench 电信场景 96.7%),适合端到端 Agent 工作

  • ChatGPT 侧的新体验连接邮箱与日历、个性化语气与语音、学习模式等,让“日常用+团队协同”门槛更低。

一句话GPT-5 是“更可驾驭的通才”,能按需快思/深想,还更懂工具。


二、我的上手感受(含和 Claude 对比)

Section titled “二、我的上手感受(含和 Claude 对比)”

下面是我在真实仓库里的手感,偏主观,欢迎拍砖。

  • 空手起稿容易犯错:让 GPT-5 直接写一大段后端代码,API 使用与技术栈细节偶有偏差,尤其是一些“看起来对、跑起来错”的小坑;Claude Code Sonnet / Opus在这种“把活儿做细”的任务里更稳。Opus 4.1 的 SWE-bench Verified 官方给到 74.5%,确实能打。

  • “照着现有例子扩写/改写”成功率高:把已有项目的目录 + 关键文件 + 我写的最小可行样例丢给 GPT-5,它在跟随风格与兼容已有接口上更靠谱,尤其前端 UI/交互一把过。Wired 与 TechCrunch 的实测也都强调了编码与写作/分析的全面提升

  • 基准分是强,但别神化:OpenAI 自报 SWE-bench Verified 74.9%、Aider polyglot 88%;第三方也有说 GPT-5 ≈ Opus 4.1 ≈ Grok 4 的场景,差距因任务而异。所以上生产别只看分

个人结论做“蓝图”和“评审”我更愿意用 GPT-5;真正“落锤拧螺丝”,Claude Code 更省心


三、推荐工作流:GPT-5 规划 + Claude Code 执行

Section titled “三、推荐工作流:GPT-5 规划 + Claude Code 执行”

Step 1|产品/架构设计
业务目标、边界条件、非功能指标丢给 GPT-5,要求产出系统草图、接口契约、失败用例与监控点。可提示:

“用 verbosity=low 给摘要;再用 high 展开关键模块风险清单。”

Step 2|任务拆解与验收
让 GPT-5 输出里程碑 → 任务 → 验收标准,并生成代码变更清单(文件、函数、风险点)。

Step 3|交给 Claude Code 干活
现有仓库 + 任务卡 + 验收标准交给 Sonnet/Opus,要求分支开发、每步提交日志、失败可回滚Opus 4.1在多文件重构/调试的稳定性正是强项。

Step 4|双向复核
让 GPT-5 做 PR Review、补测试、写变更日志;再让 Claude 做修复与扫尾

Step 5|长链自动化
复杂链路(搜索/检索/调用 N 个工具)可优先交给 GPT-5,官方在长链与工具指令遵循上给出新数据背书;但关键步骤加人工断点,别全权放飞。


  • 0→1 原型、前端美感、落地即用:偏 GPT-5(前端生成与“按需软件”趋势多家媒体实测/评价)。

  • 大仓改造、长时间连续执行、细粒度修修补补:偏 Claude Code(Sonnet / Opus);其新版本在真实工程任务上持续强化。

  • 跨应用协同、日常办公ChatGPT(GPT-5)+ 连接器更顺手。


五、冷静两点:别被曲线图骗了,别只看榜单

Section titled “五、冷静两点:别被曲线图骗了,别只看榜单”
  • 发布会图表出过事故,官方承认“图表大翻车”。看信息请以官网页面与文档为准。

  • 独立评测还在赶:像 Vellum 这类平台给出的横评更接地气,不同数据集下胜负手不一样。把问题换成你的真实工作流,才是王道。


GPT-5 是“更会想”的通才,Claude Code 是“更会做”的工匠。
**用对位:**让 GPT-5 定战略、画蓝图、督工;让 Claude Code 推进、缝合、打磨。
组合起来,才是 2025 年最靠谱的工程打法。

你会怎么分工?评论区聊聊你的组合拳。

爸妈救星:Gemini Story Book 亲子创作故事书

一分钟速览 Google Gemini 刚上线的 Story Book 功能,可以把一句灵感瞬间变成一册 10 页、带配图和朗读的电子绘本。它支持 45+ 语言、自定义画风,还能导入孩子的涂鸦当素材——对爸妈、省心;对小朋友、激发创造;对专业作者、快速打样。


  • 10 页成书:一句提示词,文本+插画+朗读一次打包。
  • 任意画风:像素、粘土、漫画甚至黑白涂色本都行,还可上传照片当角色。
  • 45 种语言:多语朗读,跨国也能当睡前故事。
  • 一分钟完成:云端渲染,手机也能搞定。

👪 给家长:睡前故事不再“词穷”

Section titled “👪 给家长:睡前故事不再“词穷””

场景:5分钟搞定《勇敢的小恐龙找睡眠》

  1. 暮色森林,小恐龙哈比揉着眼睛却睡不着。
  2. 它遇到会发光的萤火虫,请它们唱摇篮曲。
  3. 萤火虫说:先学会深呼吸。
  4. 哈比“呼——吸——”,心跳慢下来。
  5. 月亮奶奶送来一片温暖月光被子。
  6. 星星宝宝们跳舞,在夜空排成“Zzz”。
  7. 风爷爷摇晃树梢,奏起沙沙安眠曲。
  8. 哈比感到眼皮变重,打了个大哈欠。
  9. 它钻进月光被子,对萤火虫说晚安。
  10. 最后一幅:哈比微笑入睡,星空静谧。

➡️ 操作:把以上 10 段粘进 Story Book,选“手绘水彩”风格,30 秒后就得到图文+朗读绘本。孩子看图、家长解放双手。


场景:悠悠和小机器人学编程

  1. 教室里,7 岁悠悠收到一台迷你机器人。
  2. 机器人说:“给我指令,我们去冒险!”
  3. 悠悠在平板上写下 move forward
  4. 机器人翻过彩虹积木桥。
  5. turn left——它绕过睡觉的猫咪。
  6. pick flower——手臂伸出采下蓝色花朵。
  7. 花瓣变成数字雨,屏幕弹出“Hello World!”
  8. 悠悠惊喜:代码能让世界动起来!
  9. 她写下新指令:dance()
  10. 机器人与悠悠一起跳舞,大声喊“Coding is fun!”

➡️ 操作:孩子把剧本贴进 Story Book,挑“像素漫画”风格,一本专属“编程冒险”就生成,寓教于乐。


🖋️ 给故事创作者:概念一分钟打样

Section titled “🖋️ 给故事创作者:概念一分钟打样”

场景:《咖啡猫的时间旅行》提案

  1. 咖啡馆里的橘猫踩到闹钟,穿越到1925。
  2. 复古电车叮当驶过,它四处寻找咖啡豆。
  3. 遇到蓝围裙女爵,递来蒸汽咖啡机。
  4. 蒸汽化作时间隧道,猫咪跌入2050。
  5. 机器人服务生用冷萃招待它。
  6. 萌猫按下“Home”键,时空倒转。
  7. 回到原店,发现咖啡味更香。
  8. 顾客排队打卡“时空特调”。
  9. 橘猫躺在吧台,尾巴轻摇。
  10. 尾声:招牌牌匾新增一句——“感谢时光旅者”。

➡️ 操作:作者贴剧本→选“蒸汽朋克油画”风→生成原型小册,再决定是否深化剧本与画面。灵感→成品只差 60 秒。


Story Book = 一键绘本工厂

  • 爸妈省时间,陪伴更轻松
  • 孩子当主角,创造力飞升
  • 作者快迭代,市场验证加速

动动手,把你的剧本也丢进 Gemini,看看它会端出怎样的惊喜吧!

(你觉得哪个场景最实用?留言区聊聊!🎈)

三巨头同日发布:轻量开源 GPT-OSS、编码最强 Opus 4.1 和 实时 3D 世界 Genie 3

OpenAI GPT-OSS 聚焦「轻量高性能开源」、Anthropic Claude Opus 4.1 主打「极致编码 + 智能代理」、Google DeepMind Genie 3 打开「实时 3D 世界生成」新赛道——三大模型各有必杀技,也各有最佳落地场景,值得所有 AI 创作者马上上手体验。


AI 领域今天像打了鸡血:OpenAI、Anthropic、Google 同日放大招。三大实验室的最新模型不止参数升级,更在方向上分道扬镳。下面 3 分钟,带你看亮点,顺手挑出最适合你的实战场景。


开源权重 · 单卡即可跑 · 商业友好 Apache 2.0

  • 两款尺寸:120B 参数可塞进单张 H100,20B 参数 16 GB 显存就能跑。
  • 推理成本低,延迟相比 GPT-3.5 系列下降 40%。
  • Benchmarks 显示,120B 模型在推理/工具调用上逼近 o4-mini。
  1. 本地私有化部署:医疗、金融等对隐私敏感的企业。
  2. 学术研究 & 二次微调:Apache 2.0 随便改,不限商用。
  3. 边缘推理:20B 版本配合 16 GB GPU 可上工业网关。

互动:如果你打算自建 LLM 服务,GPT-OSS 更吸引你还是 Llama 3?评论区聊聊~


SWE-bench 74.5% · 多轮代理 · 长上下文

  • Coding 基准 SWE-bench Verified 74.5%,再刷榜首。
  • Agentic Search:自动分步检索→汇总→生成。
  • 已上线 API、Bedrock、Vertex AI,价格与 Opus 4 持平。
  1. 复杂代码库重构:万行级重构 + 单测生成,一口气搞定。
  2. 企业内部知识检索代理:给文档库插上会思考的“大脑”。
  3. RAG 长文报告:超长上下文 + 细节追踪,少丢信息。

实时 24 fps · 720p · 可交互世界模型

  • 文本 → 分钟级 3D 世界,分辨率 720p,24fps。
  • 支持 Promptable World Events:一句话切换天气、加入角色。
  • 目标:为机器人、自驾训练提供高保真模拟。
  1. 游戏快速原型:设计师直接用文本拼场景。
  2. 机器人仿真训练:虚拟仓库、工厂先练再上真机。
  3. 数字孪生 / 教育体验:秒造交互式实验室、历史城市漫游。

需求首选模型理由
私有部署 + 低成本GPT-OSS 20B/120B轻量、Apache 2.0
大型编码 / 复杂搜索Claude Opus 4.1Coding SOTA + Agent
3D 交互 / 仿真Genie 3实时世界模型

未来几周 GPT-5 还在路上,大战刚开场,你准备好拥抱这波红利了吗?

120 亿 VS 50 亿:OpenAI 与 Anthropic 收入激增

过去半年,生成式 AI 赛道再次刷新速度上限:

  • OpenAI 的年化经常性收入(ARR)在 6 个月里从 60 亿美元 飙到 120 亿美元
  • Anthropic 则在 7 个月内实现了 10 亿 → 50 亿美元 的 5 倍跳跃。

这两家明星公司为何能同时“起飞”?更关键的是,它们的增长动能来自哪里、未来可能出现哪些变局?本文拆解四个关键收入模块,带你看清赛道暗流。

1. 消费者订阅:OpenAI 继续一骑绝尘

Section titled “1. 消费者订阅:OpenAI 继续一骑绝尘”
模块OpenAI 2025E ARRAnthropic 2025E ARR主要驱动
消费者订阅55 亿美元7 亿美元ChatGPT Plus、Team、学生订阅等

OpenAI 在 C 端的优势由 ChatGPT PlusTeam 强化:月费 20–30 美元的订阅模式将庞大的免费流量转化为现金流。相比之下,Anthropic 尚未跑出类似体量的直面消费者产品。

2. 企业与伙伴订阅:微软加持带来的“顺风车”

Section titled “2. 企业与伙伴订阅:微软加持带来的“顺风车””
模块OpenAIAnthropic
企业 & 合作伙伴订阅36 亿美元9 亿美元

OpenAI 得益于 Microsoft 365 Copilot 与 Azure OpenAI Service 的深度绑定:企业通过 Azure 采购 GPT-4o,计入 OpenAI 的合作收入。Anthropic 虽与 Google、AWS 均有捆绑,但规模仍落后。

3. API 收入:Anthropic 反超的唯一战场

Section titled “3. API 收入:Anthropic 反超的唯一战场”
模块OpenAIAnthropic
API 收入总额29 亿美元31 亿美元

API 是 Anthropic 唯一领先的细分:Claude 3/4 系列在开发者社区口碑突出,更以 token 价格友好稳态响应 抢占市场。

  • Cursor + GitHub Copilot 合计贡献 14 亿美元 ARR,占 Anthropic API 收入近一半。
  • 代码专用模型 Claude Code(前称 Claude 3 Haiku-Code)也在短短数周内 ARR 从 2 亿涨到 4 亿美元

几乎所有热门 IDE 插件、浏览器扩展默认调用 Claude 4 Sonnet,这让 Anthropic 在代码生成领域形成了事实标准。

4. 产品矩阵对比:谁更“抗周期”?

Section titled “4. 产品矩阵对比:谁更“抗周期”?”
收入来源多样性OpenAIAnthropic
消费者订阅
企业订阅
API
代码专用模型独占高增长

OpenAI 的结构更均衡;Anthropic 则高度依赖 开发者 API + Coding,集中度高意味着 弹性与风险并存

  • 利好:只要持续领先代码能力,ARR 可爆发式增长。
  • 隐忧:一旦 GPT-5 或其他模型在代码任务上追平并通过价格战渗透,API 客户(尤其是 Cursor、Copilot)可能出走,营收会立刻受挫。
  1. GPT-5 的代码性能
    OpenAI 已公开招聘“Code LLM”团队,若 GPT-5 在代码生成与单元测试自动化上大幅超越 Claude 4,Anthropic 的护城河或被冲击。
  2. 成本结构差异
    Anthropic 依赖 AWS Trn1/Trn2,同时加购 Nvidia H100;算力与资本支出更重。OpenAI 在微软定制超算上拥有成本优势,可通过降价压缩对手利润率。
  3. 垂直化 SaaS 夹击
    Replit Ghostwriter、Sourcegraph Cody 等自研或多模型路由方案在兴起,降低了对单一 API 的依赖。
  • 开发者:短期内 Claude 4 Sonnet 在代码任务依旧性价比最高,但应提前做多模型兼容,规避供应商锁定。
  • 产品经理/创业者:若定位非代码场景(客服、文案、多模态),OpenAI 的生态、插件体系更成熟。
  • 投资者:关注两家公司在 代码 LLM 领域的新基准测试(HumanEval+, SWE-Bench 等),以及大客户绑定的续约价格——这将直接折射出增长曲线是否可持续。

结论
OpenAI 与 Anthropic 都在刷新收入增长纪录,但二者的“增长曲线”底层逻辑截然不同:前者多点开花、护城河宽;后者依赖单一高增速赛道冲刺。未来 6–12 个月,代码生成这条“胜负手”若被改写,2025 年 ARR 排名很可能再度洗牌。

这套 Claude Code 命令,拯救了我每周 5 小时的编程时间

CCPlugins 是一套由社区开发者 brennercruvinel 维护的 24 条「专业级」命令包,专门为 Claude Code CLI 打磨,主打省时、省心、省 bug。它用“会话式”语法把安全检查、代码清理、特性脚手架、智能提交等繁琐活做成一条条 Slash-Command,安装脚本 30 秒就能跑完,实测每周可帮开发者节省 3~5 小时机械劳动时间。


“加个按钮”结果给你重写整套 UI?在 Claude Code 里,这事儿并不稀奇。CCPlugins 想做的,就是把 Claude 的『无穷想象力』关进笼子,让它只做你要的事


  • “Enterprise-grade workflows”:面向团队的流程化命令集,而不是单纯 prompt 宏。
  • 针对 Opus 4 / Sonnet 4 模型专门微调的上下文模板,保证输出稳定。
传统做法常见痛点CCPlugins 解法
手打 prompt过度工程 / 输出失控固定脚本 + 校验阶段 /refactor validate
人工提交信息缺失/commit 自动生成 Conventional Commit
全量扫描浪费时间Grep / Glob 只扫关联文件,增量处理

Terminal window
# macOS / Linux
curl -sSL https://raw.githubusercontent.com/brennercruvinel/CCPlugins/main/install.sh | bash
# Windows
python install.py

卸载同理:./uninstall.shpython uninstall.py

提示:脚本会把所有命令 md 文件放到 ~/.claude/commands/,再次更新直接 git pull


  • /cleanproject :秒删调试垃圾,自动 Git checkpoint 备份。
  • /scaffold user-auth :读取项目结构,一键生成完整功能骨架。
  • /review :四重子 Agent 做安全、性能、架构、可维护性体检。
  • /security-scan :链式漏洞扫描+修复跟踪。
  • /understand :自动输出架构图、设计模式清单。
  • /explain-like-senior :一句话读懂复杂代码,支持多文件。
  • /session-start / /session-end :生成 CLAUDE.md,完整记录迭代历程。

  1. 安全护航

    Terminal window
    claude "/security-scan" && claude "/review" && claude "/test"

    让 CI 在合并前跑一遍「扫描-审查-测试」流水线。

  2. 晨间例行

    Terminal window
    claude "/session-start"
    claude "/predict-issues"

    上班先预测风险,再开工。

  3. 收工一键收尾

    Terminal window
    claude "/format" && claude "/commit" && claude "/session-end"

    统一代码风格+智能提交信息+总结日志,优雅下班。


CCPlugins 把「一句话指挥 AI」升级成了模块化、可复用、可审计的工作流,让我们真正把时间花在设计和决策上,而不是 debug 和手动搬砖。还不快装一个试试?

Claude Code 在你的本地浏览器中运行

Claude Code Web UI(简称 CUI)把原本只在终端里跑的 Claude Code 搬进了浏览器,界面现代、支持并行多会话、还能推送通知和语音听写;只需一条 npx cui-server 命令即可启动,登录后就能在任何设备继续你的 AI 编程任务。


还在命令行里和 Claude “黑屏对话” 吗?CUI 让 AI 编程体验直接升级成云端 IDE,点开浏览器就能写 Prompt、跑 Agent、收通知,连手机也能随时接力。


  • React + TypeScript 打造,界面自适应桌面与移动。
  • 自动补全 与 CLI 保持一致,上手零学习成本。
  • 支持 多任务同时流式输出,复杂项目不再排队。
  • CUI 会扫描 ~/.claude/ 历史,集中展示并可一键 Resume / Fork / Archive
  • 集成 ntfy,任务跑完或等待授权时立即提醒。
  • 连接 Google Gemini API,长句语音转文字又快又准。

  1. 环境准备

    • Node.js ≥ 20.19.0。
  2. 一键启动

    Terminal window
    npx cui-server
    # 或全局安装:npm i -g cui-server

    终端会输出一串 #token,复制备用。

  3. 浏览器访问 打开 http://localhost:3001/#<token> 即可登陆。

TIP: 需要远程访问?在 ~/.cui/config.jsonserver.host 设成 0.0.0.0,或用 --host / --port 参数,再配合 Caddy 反向代理升级 HTTPS。


  • Tasks 标签页查看正在运行的会话;长任务可直接关页后台跑,不怕断线。
  • / 调命令、@ 调文件,和 CLI 保持同一套肌肉记忆。
  • ⌘/Ctrl + Enter 发送,空格换行,小技巧提高 10% 敲字效率。
  • 先在系统里导出 GOOGLE_API_KEY,再重启服务器即可开启语音输入。
  • 任意设备装好 ntfy 客户端,订阅同一 Topic,任务结束马上震动提醒,不再盯屏。

CUI 把 Claude Code 的能力做了“浏览器可视化外壳”,轻量安装+远程访问+推送生态,让 AI 编程像刷网页一样丝滑。你最期待用它解决什么痛点?评论区聊聊!

Palantir 股价走强背后的可控 AI 工程学

导读|当 AI 的“执行速度”远超人的复核速度,真正稀缺的是面向高风险行业的工程化质量与治理体系。Palantir 之所以能在 2025 年成为资本市场与产业落地的“双热门”,不是更会“讲故事”,而是把 数据—模型—行动—审计—交付焊成了一套可复用的可控 AI工程系统,并在医疗、航天、制造、国防这些“硬场景”里规模化复用。与此同时,股价持续走强,也在用市场定价反馈这套体系的商业穿透力与现金流确定性。

一、基本面为何“顶得住”股价?——来自两条主线的双重确认

Section titled “一、基本面为何“顶得住”股价?——来自两条主线的双重确认”

1) 经营与指引的上修 2025 年一季报,Palantir 收入 $8.84 亿、同比 +39%,并上调全年营收至 $38.9–39.02 亿区间;美国区收入 +55%,其中美国商业收入 +71%$2.55 亿,成为增长主引擎。

2) 长约 + 总框架的“现金流地基”

  • Maven Smart System:美军在 2025-05-20 对既有合同追加 $7.95 亿上限,至 2029-05-28
  • 美陆军 10 年企业级协议(EA):将 75 份分散合同整合为一份覆盖 10 年、上限 $100 亿 的企业级软件协议,用于快速采购 Palantir 的数据与 AI 软件(上限非承诺额)。

小结高确定性的大客户+高增速的商业业务叠加,既提供了当期业绩的兑现,也为估值提供了“耐久资产”的锚。即便短线因“估值贵”而波动,机构与媒体普遍将“业绩上修+合同框架”视作股价强势的主要支撑。


二、为什么是 Palantir?——“AI 工程化四件套”打穿关键业务闭环

Section titled “二、为什么是 Palantir?——“AI 工程化四件套”打穿关键业务闭环”
  1. Ontology|业务语义层:把企业真实世界(对象/关系/动作)数字化为“可被人和 AI 共识理解、且可执行回写”的语义底座。
  2. Foundry|数据+治理+应用:内置数据血缘、细粒度权限与合规模板,数据与动作全程可审计、可追责。
  3. AIP|AI 平台:在 Workflow/Logic/Agent Studio 中构建可上线的 AI 工作流与代理,支持多家主流 LLM 并把**Guardrails(规则/审批/权限)**写进流程。
  4. Apollo|跨域持续交付:在云/本地/空隔等多安全域统一版本、灰度与回滚;官方文章详述其在分级(含 IL6)空隔环境的交付方法论。

关键词:不是“更强模型”,而是更强工程:把 AI 的“思考速度”关进制度的笼子——从语义到动作为一体,从数据到行动全链条审计与治理。


三、四个“难啃行业”的落地样板

Section titled “三、四个“难啃行业”的落地样板”

① 公共卫生|英国 NHS 联邦数据平台(FDP) NHS 官方披露:7 年期、最高 £3.3 亿 投入,用于把分散系统联成面向一线临床与运营的联邦底座;推进中亦有采用进度与治理争议(英媒长期跟踪)。

② 航空航天|Airbus Skywise 行业平台 空客 2017 年联合 Palantir 启动 Skywise,平台后续对行业开放并被官方确认“Powered by Foundry”;Palantir 概览披露已超 100 家航司接入。

③ 公共治理/供应链|HHS/CDC 的 “Tiberius” HHS 在疫情期上线 Tiberius2020 年 9 月起运行),用于疫苗与治疗物资的全链路分配与追踪,文献明确其建立在 Palantir Foundry 之上。

④ 国防安全|Maven + 陆军企业协议 Maven 合同增补与陆军 10 年 EA 是“从项目走向统一软件采购体系”的信号:把 AI/数据平台当作长期软件基建来运维与迭代。


四、“接近光速”的质量与风险控制:把制造/医疗/航天的 QA 搬进 AI

Section titled “四、“接近光速”的质量与风险控制:把制造/医疗/航天的 QA 搬进 AI”
  • 细粒度权限 × 全程血缘:Foundry 原生列/行级权限与数据血缘,可对敏感信息实施差异化可见;行动(Action Types)同样受控并被记录。
  • 受控代理(Agent)与工作流护栏:AIP 将规则、审批、状态机嵌入工作流,让“能说会做”的 AI 始终处于可审计的动作空间
  • 跨域连续发布:Apollo 支持空隔与多密级环境的二进制传递与元数据同步,提供统一版本、灰度与回滚能力。
  • 制造业质量管理(QMOS):Palantir 将SPC/质管方法做成应用(QMOS)并在 Foundry 里统一数据、过程与改善循环;学术案例也显示车间数据工程化接入能显著提升班组效率与质量闭环。

五、资本市场读懂了什么?——“股价 ≈ 采用度 × 业绩兑现 / 估值风险”

Section titled “五、资本市场读懂了什么?——“股价 ≈ 采用度 × 业绩兑现 / 估值风险””
  • 采用度正在量化:以 AIP Bootcamp(5 天从 0 到可用) 为核心的 go-to-market,被官方与媒体反复提及:自 2023 年以来累计完成超 1,300 场,显著压缩试点到生产的周期。
  • 业绩兑现在提速:Q1 收入与全年指引上修,尤其美国商业高增,成为市场上修预期的重要依据。
  • 估值与波动:尽管股价屡创新高,但主流媒体也反复提示估值偏高/波动大;投资者需重点跟踪政府框架协议的转化节奏商业侧续航

六、给“难啃行业”的 AI 落地清单(可直接对表执行)

Section titled “六、给“难啃行业”的 AI 落地清单(可直接对表执行)”
  1. 闭环优先:优先选能闭环的高价值/高风险流程(排产、质控、临床路径、指挥链),把权限/审计/血缘一开始就写进方案。
  2. 建设企业级 Ontology:将对象—关系—动作统一建模,既让 AI 有规可依,也让人类可追溯、可回滚
  3. 把 Guardrails 写进工作流:用审批、状态转换、双人钥等机制限制代理动作空间;默认“人授能、AI 受控”
  4. 跨域持续交付:在云/本地/空隔统一版本与灰度,避免“影子系统”。
  5. Bootcamp 化推进:一周打出可上线的最小闭环,以事实证据拉动组织与预算。

当 AI 的执行速度逼近“光速”,赢家不是说得最快的公司,而是把速度驯服进质量与治理的公司。PalantirOntology + Foundry + AIP + Apollo医疗、航天、制造、国防这些最难场景里跑通了可执行、可审计、可复用的 AI 工程体系;股价的持续走强,正是市场对这套体系“可持续兑现”的一次集体投票。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Nvidia GPU 左右 AWS, Google, Azure 业绩是否达标?

AWS、Google、Microsoft 最新 Q2 云服务业务是否“达标”与 Nvidia 芯片份额的关系分析:

展示了 2025 年估计的云收入市场份额(cloud revenue)与 Nvidia GPU 占有率

  • AWS(亚马逊)预计占云收入约 44%,占 Nvidia GPU 20%
  • Google Cloud 约 19% 云收入20% GPU
  • Microsoft Azure 30% 云收入30% GPU
  • 其余新云服务(如 CoreWeave、Oracle)占云收入 5%、GPU 11%,合计新玩家 GPU 约 30% 左右

二、2026 财年 Q2 最新财报:云收入表现一览

Section titled “二、2026 财年 Q2 最新财报:云收入表现一览”
  • Q2 云收入 ~$31 B,同比增长 17.5%,年度运行率约 $123 B 。
  • 尽管跑赢预期,但相比 Microsoft 与 Google Cloud 的增长率落后。
  • Q2 云收入约 $13.6 B,同比增长 32%,超出市场预期。

Microsoft Azure(隶属 Intelligent Cloud)

Section titled “Microsoft Azure(隶属 Intelligent Cloud)”
  • 微软 Q2 收入 $76.4 B,Azure 部分同比上涨 约 39%,Azure 年收入已突破 $75 B,并继续加速。

三、与 Nvidia 芯片份额的对应关系分析

Section titled “三、与 Nvidia 芯片份额的对应关系分析”

图片中 AWS、Google、Microsoft 的云收入份额与 Nvidia GPU 占比分别为:

  • Azure:30% 云收入 ⇄ 30% GPU
  • GCP:19% 云收入 ⇄ 20% GPU
  • AWS:44% 云收入 ⇄ 20% GPU

对应现实数据:三家都是 Nvidia GPU 最大买家,但 AWS 尽管云营收最大(约 30–32% 市场份额),其 GPU 占比被历史降至 ~20%,远低于它的营收主导份额,这可能受 AWS 自研 Trainium/Inferentia 芯片替代部分 Nvidia 需求的影响 。而 Microsoft 与 Google 对 Nvidia 依赖更大,因此 GPU 占比接近其云收入份额。

  • Microsoft Azure:39% 增速强劲,高于同行,是增长领先者,云收入成长完美匹配 Nvidia GPU 占比,其 AI 能力和硬件配比表现都“达标”。
  • Google Cloud:32% 增速也非常亮眼,符合其 GPU 占比 ~20%(略高于云收入占比的小幅匹配),算是稳步达标。
  • AWS:虽然云收入最大,但增长落后(17.5%),未能与 GPU 占比同步提升;而 GPU 占比仅约 20%,低于其云收入市场份额(约 30%),这反映 AWS 越来越多使用本土芯片替代 Nvidia,从而影响 Nvidia 芯片购买—总体来看云业务增长不及预期,与 Nvidia 高市场占有率的关系弱化。

  • 微软 Azure:强增长、高 GPU 支出、与 Nvidia 占比高度契合,构成 AI/云双重引擎,标准达标;
  • Google Cloud:增长加速、资本开支提升、GPU 占比略超云份额,稳步“达标”;
  • AWS:营收领先但增速偏慢,且 GPU 占比低于云营收份额—在 Nvidia 供应依赖减少的趋势下,AWS 对 Nvidia 的贡献与云业务增长脱钩。
  • 尽管 Nvidia 仍掌握 约 90%+ 数据中心 GPU 市场份额 ,但其对三大 hyperscaler 的依赖正在分化:AWS 的依赖性在降低,而微软与 Google 更进一步加大采购匹配 AI 布局。
  • 同时,Nvidia 拓展 CoreWeave 等“新云”平台,抢占未来 11% GPU 市场份额(图中新云 ≈ 30% GPU)方向一致 。

公司Q2 云营收增长率Nvidia GPU 占比与 GPU 占比是否契合是否达标
Microsoft Azure~39%~30%高度匹配✅ 达标
Google Cloud~32%~20%略高略匹配✅ 达标
AWS~17–18%~20%云收入份额高于 GPU 占比❌ 未达标

  • 微软 Azure 与 Google Cloud 的云服务增长与 Nvidia GPU 占比整体匹配良好,可视为“达标”。
  • AWS 尽管规模最大,但其增长速度与 GPU 占比存在落差,难以称其与 Nvidia GPU 使用之间保持同步增长。
  • Nvidia 消费结构正从集中 hyperscaler 向联手中小云服务平台(如 CoreWeave)多元化延展,应继续观察未来 GPU 在这些平台的分布是否能维持图中的“新云 ~30%”趋势。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Claude Code 助你开发效率从 1× 到 100× 的蜕变

你是不是也听过那句经典论调:「一个 1× 工程师用 AI 是 0.1×,但一个 10× 工程师用 AI 就是 100×」。这不是夸张,而是真的 —— 前提是你具备 系统思考、沟通精准、架构设计 等关键能力。本文逐条拆解,结合 Claude Code 的真实能力,告诉你如何将 AI 效能暴涨 100 倍。


场景 1:高维思维 vs 文件级思维 🚀

Section titled “场景 1:高维思维 vs 文件级思维 🚀”

.1× 工程师只能想“写一个方法”,而 100× 工程师能够在心里保持整个系统的状态。Claude Code 能够瞬间建立对百万行代码的整体视图。只需一句话,你就能让它 “搜索项目中的用户权限逻辑,分析跨服务依赖,并生成包含所有修改的 PR” —— 整个代码库级别的联动由 Claude 去做。

举例 你想将 authToken 的加密方式从 HMAC-SHA256 换成 RSA:只需一句 “用 RSA 重写 token 逻辑并确保测试绿灯”;Claude Code 一次性跨 5 个文件:controller、service、utils 和单测,形成协调一致的 Git 提交。


场景 2:沟通精确度,就是效率倍增器

Section titled “场景 2:沟通精确度,就是效率倍增器”

.1× 工程师给出模糊需求,CLAUDE 要 “猜”、要“试”,容易反复。

而那些会写工程思维文案的 100× 工程师知道,prompt 写得像好文章,LLM 才能帮你精准执行。

Claude 团队多次强调结构式 Prompt:包括背景、意图、格式、例子、校验条件等要素。

举例 你想重构 calculateScore 函数,并确保逻辑保持一致: 你提供示例输入输出表、希望 PR 标题模板、CI 校验规则;然后一句话交给 Claude Code:“基于以下示例和规则,重构 calculateScore,请输出 PR diff、测试报告和 commit message。”

结果:PR 合格率 99%,人工 Curate 降低 20 倍。


场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出

Section titled “场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出”

.1× 工程师头也不回地叫 Claude 写功能,结果系统崩;100× 工程师知道重要的是事前设计。

Claude Code 能结合长上下文记忆与工程意图,执行设计得当的结构变更——Cue MCP(Model Context Protocol),让 Claude 可以接入你的设计文档、tickets、架构图等,形成长期视角(state)。

举例 你计划把 monolith 分拆成 service mesh:先写明确文档 + 接口契约 + 合并策略,然后用 Claude Code 一步步生成 scaffolding、提取逻辑、生成 SDK 和原型 PR,甚至连 CI 配置都自动生成,测试通过才交给你审查。


场景 4:上下文控制力,是你价值的翻倍杠杆

Section titled “场景 4:上下文控制力,是你价值的翻倍杠杆”

停止把 LLM 当作 autocomplete,开始把它当作系统级上下文引擎。Claude Code 嵌入了 Claude Opus 4,能完整地理解整个项目结构、依赖图、命名规则、样式规范,甚至 README 和 issue template。

举例 你想新增一个“移动端缓存层”模块。只要一句话让 Claude Code “遵循项目现有的 cache‑service pattern,生成 consistent module + README + unit tests”,它就能识别 pattern,把新增代码一致地插入代码架构。


场景 5:真实智力与系统思维优先,工具知识可有可无

Section titled “场景 5:真实智力与系统思维优先,工具知识可有可无”

.1× 工程师挂靠 IDE 快捷键记事,.10× 工程师从 Node.js 切到 Go r,但 100× 工程师享受的并不是写代码,而是提出模式、解构问题并让 Agent 去买单

Claude Opus 4 在 Anthropic 自己内部被称为 “the best coding model in the world”,能让工程师“在几小时内持久完成数百步骤的复杂任务”——这就是系统思考+Agent 控制的典型成果。

举例 你想重写一个微服务,从 Express 移植到 Rust,保留原先全部行为边界:你写需求和样板数据,Claude Code 自动 scaffold Rust 服务、生成 HTTP 接口、映射数据模型、迁移旧逻辑,还生成了对比测试和部署 config。


场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟

Section titled “场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟”

对 100× 工程师来说,Claude 会把你的组织原则、命名规范、测试覆盖、文档风格“学习”起来,然后在每个 commit 中都一致执行。如果你乱写英文注释和乱用缩进,它会帮你继续乱;你有纪律,它把你变成一套风格化的引擎。

举例 项目早期你严格遵守 <service>.test.js、commit 90 字以上 PR 描述,README 和 issue 模板齐全。Claude Code 会像你一样严格标注 "BREAKING CHANGE"、现在发现未测试路径不会生成代码,commit 中自动引用 issue ID。如果项目混乱,它生成的 commit 往往也会混乱——这个“坐骑”跟谁奔,谁有节奏。

来自社区真实反馈:

“I have mindlessly asked Claude Code over a large codebase … it gave an extremely clear report…” —— 大意是即便 prompt 不好,但项目结构清晰,Claude Code 挺给力。


  • Claude Code 并不仅是智能编写代码,更是让你能像架构师一样思考系统问题,精准沟通设计意图,持续维护代码标准。
  • 它不是让你不写代码,而是让你的大脑留给真正重要的决策,把繁重重复任务交给 AI 去背。
  • 当你把系统思考、prompt 文案、项目结构、测试覆盖、工程规范等打磨好时,Claude 就像你零误差的 100× 扩音器。

Claude Code Security Review 帮你盯代码安全漏洞

Claude Code 刚发布的 claude-code-security-review 把 Anthropic Claude 的大模型推理力塞进 GitHub Actions 和终端指令里。它能在拉取请求(PR)阶段就解析 diff,找出 SQL 注入、XSS、授权绕过等高风险漏洞,并自动过滤低价值噪声,还能通过 /security-review 一键在本地扫描。你的代码还没合并,潜在漏洞就已经被 AI 点名。


一、Claude Code Security Review 是什么?

Section titled “一、Claude Code Security Review 是什么?”
  • AI 驱动的安全审计:调用 Claude 的深度语义理解,超越正则匹配,直接读懂代码意图。
  • GitHub Action 集成:在 PR 打开或同步时自动触发,漏扫结果回帖到具体代码行。
  • 终端 Slash 指令:在 Claude Code 里输入 /security-review,同样的扫描能力即刻离线运行。


内置 False Positive Filtering,默认屏蔽 DOS、资源耗尽、无实际影响的输入校验等低危告警,只把真正要命的洞拉出来。

可识别注入攻击、鉴权缺陷、硬编码密钥、弱加密、业务逻辑竞态等 10 大类问题。

只分析改动文件,不挑语言,适合多语言微服务仓库。

一段 YAML 就能跑:

- uses: anthropics/claude-code-security-review@main
with:
claude-api-key: ${{ secrets.CLAUDE_API_KEY }}
comment-pr: true

VentureBeat、The New Stack 等媒体均指出,随着 AI 生成代码量激增,自动化安全审计已成刚需。这一 Action 正填补空缺。


  1. 在项目根目录新建 .github/workflows/security.yml
  2. 复制上方 YAML,并在仓库 Secrets 里添加 CLAUDE_API_KEY
  3. 提 PR 即可看到 Claude 自动评论漏洞详情 + 修复建议

<空一行>

在终端或 VS Code Claude Code 面板输入:

/security-review

即可对当前未提交改动执行同等级别审计,适合单人开发或离线场景。

<空一行>

  • 将仓库中的 security-review.md 复制到 .claude/commands/
  • 编辑过滤规则或补充公司专属安全基线,比如禁止弱密码算法。

场景触发方式AI 发现的问题结果
内部工具新增本地 HTTP 服务PR 合并前自动审计DNS Rebinding → RCE漏洞在合并前被修复
老项目重构终端 /security-review敏感日志泄露 + 弱加密 AES-ECB一键生成加密/日志修复 Patch
多语言微服务仓库每次 PRPython 依赖投毒 + Node XSSPR 评论列出漏洞 + npm audit fix 指令

AI 写码快,AI 把关安全更要快。把 claude-code-security-review 接入你的 DevSecOps 流水线, 让每一行提交先过安全门,再进主干。下一个零日,也许就被你提前关在门外。

编程、写作、图片和视频各领域推荐的海外 AI 产品服务

如果要搞深度推理、多模态处理还有复杂代码,Gemini 2.5 Pro Deep Think 是最强的选手; 要做全方位研究、自动整理信息产出报告,就选 ChatGPT Deep Research; 想在终端里让 AI 帮你写、调试大项目代码,用 Claude Code 最稳; 想在 IDE 里像跟队友协作改 bug、写功能,Cursor 更贴合开发场景; 做图用 Midjourney,做短视频就靠 Veo 3; 要搞流程自动化、脚本流程交互,就让 n8n 自己跑起来。

这样一来,选对工具,事半功倍。每个产品都有它最擅长的领域,组合使用才能发挥最大效力。

这是 OpenAI 最新的 o3 模型,主要擅长快速问答和信息检索。如果你有疑问,想要快速准确地找答案,聊知识、问问题,它才是首选。反应快,语言流畅,适合日常使用。


二、ChatGPT GPT‑4.5(AI 写作最佳)

Section titled “二、ChatGPT GPT‑4.5(AI 写作最佳)”

在创作文章、写内容、撰写复杂文本简介时,GPT‑4.5 拥有更强的理解和表达能力。情感丰富、结构清晰、语言多样,很适合写文案、报告或长篇内容。


三、Gemini 2.5 Pro(长文本 / 高级推理)

Section titled “三、Gemini 2.5 Pro(长文本 / 高级推理)”

Gemini 2.5 Pro 是 Google 发布的顶配模型,支持文本、图片、音频、视频、PDF 等多模态输入。它在复杂推理、代码生成、高级数学、科学题目上表现优秀,比如在数学或科学测试中拿高分。可以理解为 AI 世界的大脑型选手,非常适合深度内容创作与分析。


四、ChatGPT Deep Research(深度研究模式)

Section titled “四、ChatGPT Deep Research(深度研究模式)”

这是 OpenAI 专门为深入研究打造的模型,能够拆解问题,进行 5–30 分钟的多步骤网络搜索,自动浏览网页、提取信息、综合分析,并生成带引用的报告。适合用于市场调研、论文摘要、竞品报告、行业趋势分析。


虽然图表中没有给出个人版本,但 Midjourney 是生成艺术图、插画、设计视觉等最强的 AI 工具。支持风格多样、细节丰富、美感极高,创作者做封面图、插图时常选它。


Anthropic 的 Claude Code 是一个命令行终端里的 AI 编程助手。它可以自动映射你的项目结构,理解代码库、分析依赖,几秒钟内生成文档、增加新功能或重构代码。它背后用的是强大的 Claude Opus 4 模型,在编码表现方面已经领先业界。


Cursor 是基于 VS Code 的 AI 智能 IDE,可以完全理解并“记住”整个代码库,你提提示,它就能生成功能、编辑代码、回答代码相关问题。很多开发者说,用了 Cursor 后编码效率提升不止几倍。


Google 最新的 Veo 3 模型擅长生成高质量短视频,支持文本或图片输入,生成带原声音轨、配音、背景音或者对话,并且口型同步精准,输出最高可达 1080。企业、创作者可以用它快速生成广告、产品展示视频或教学短片。


n8n 提供的是流程自动化平台,结合 AI Agent 可以构建复杂工作流:自动抓网页、接入数据库、调用 API,让 AI 做决策、执行任务,不断在系统里运转。适合企业级场景,比如客服机器人、数据处理流程、定时提醒等。


领域首选产品优势与适用场景
AI 问答ChatGPT o3快速问答、信息检索
AI 写作GPT‑4.5创意写作、文案生成
复杂推理/长文本Gemini 2.5 Pro多模态、深度推理
深度研究ChatGPT Deep Research自动引用、详细报告
AI 图像Midjourney插画、视觉内容生成
编程助手Claude Code项目理解、代码生成
AI IDECursor代码库编辑、智能提示
AI 视频Veo 3高质量短视频生成
自动化 Agentn8n跨系统流程自动化

每个 AI 产品都有某个领域的绝对优势。如果你要迅速回答问题,用 ChatGPT o3;想写一篇有结构、有情感的长文,用 GPT‑4.5 或 Gemini;要撰写专题报告,就让 Deep Research 帮你整理;做代码协作,Claude Code 和 Cursor 各有特色;生成短视频,Veo 3 是最佳工具;流程自动化,那就交给 n8n。


在 AI 工具层出不穷的今天,选对工具比盲目追全能更重要。每个“首选方案”都有它擅长的地方。组合使用这些产品,你可以在问答、写作、研究、编程、图像、视频、自动化等领域快速落地、高效输出。

你最想优先尝试哪一个呢?欢迎评论告诉我你的使用体验,或分享你的操作案例!

Claude Code + Backlog.md 打造 AI 协作 + Git 看板

Backlog.md + Claude Code 把任何 Git 仓库秒变「看板 + 文档 + AI 协作中心」,而且所有数据都只是 Markdown 文件,离线私有。下面这篇文章会带你 5 分钟上手,从安装、核心亮点到典型工作流,一口气讲透它为什么能成为「人类 + AI」共创项目的最小可行栈。


还在多个 SaaS 工具之间疯狂切换?Backlog.md 用一行命令就能在本地生成一个完整的项目管理系统,既适合个人极客,也能无缝接入多智能体流水线,让 Claude、Gemini 直接读写任务。


  • 每个 Issue 就是一张 task-123 - title.md,随时 Git diff。
  • 本地编辑器香,AI 也读得懂。
  • 所有文件都在仓库里,无需外网依赖;在火车上也能改看板。
  • backlog board 直接在终端渲染实时列队。
  • backlog browser 自动打开响应式 Web UI,拖拽更新状态。
  • 自带 CLAUDE.md 等说明文件,输入「Claude 请接管 task-33」即可分配工作。
  • 支持子代理、Ultrathink 规划,常见模型都能配。
  • npm i -g backlog.mdbrew install backlog-mdnix run 随便挑。
  • Homebrew & Fedora 包同时上线,版本跟进快。

步骤命令说明
初始化backlog init "AI Side Project"交互式配置,自动生成 backlog/ 目录
捕捉任务backlog task create "重构登录流程"支持描述、负责人、标签、优先级等
查看进度backlog boardbacklog browser终端 / 浏览器两种味道

**Tips:**想让 AI 批量拆解需求?直接把 PRD 粘给 Claude:“请用 ultrathink 拆分任务并识别依赖”。


backlog board export README.md --export-version "v1.0.0" 生成带版本号的 Markdown 看板,推上 Git 立刻同步团队。

  • 利用 git worktree 或次仓库把 BE / FE 任务汇总到同一目录;所有链接仍指向原始分支。
  • backlog config set autoCommit true 省去手动 git add/commit
  • 若你有严格 pre-commit,可 bypassGitHooks true

backlog overview 在终端显示任务燃尽、柱状统计,让你秒判项目健康度。


  1. 独立开发者:本地 Git + Markdown,一台电脑全部搞定。
  2. 远程小团队:Pull Request 即同步任务状态,免 Jira。
  3. AI 代理流水线:LLM 读取 / 更新 task 文件,实现「规划→编码→PR」闭环。

Backlog.md 用最原生的工具链,把项目管理、文档、AI 协作三件事合一,帮我们把注意力拉回「写代码」本身。

你准备试试这种「本地 Git 看板」了吗?评论区等你分享体验!

Claude Code 的 Slash‑Commands 与 Sub‑Agents 的区别与协作实战

你有没有想过,可以把常用的 AI 操作包装成快捷命令,一键执行,还能让 AI 拆任务后分工合作?Claude Code 正是这样一款能让开发者更高效、更规范、也更有趣地使用 AI 辅助编码的工具。今天我用轻松的语言跟你聊聊它的两个核心功能:Slash‑CommandsSub‑Agents,并告诉你它们有什么特点、用法和区别,还举几个真实的例子让你立马能用。

在 Claude Code 中,Slash‑Commands 就像你事先写好的“快捷按钮”,能一键触发标准流程;而 Sub‑Agents 就像一支由多个 AI 小助手组成的团队,每个小助手专精一项任务,由主 Claude 给它们安排工作。


Slash‑Commands:你自定义的 AI 快捷按钮 🚀

Section titled “Slash‑Commands:你自定义的 AI 快捷按钮 🚀”
  • 自定义提示写一次,用命令调一次:将常用操作(如代码审查、性能优化、Issue 修复)写入 .claude/commands/*.md 文件,Claude 就把这套提示视为一个命令。输入 /命令名 参数 就能自动执行对应流程。
  • 支持参数化:命令中可使用 $ARGUMENTS 占位,输入参数时会替换提示内容,接收 Issue 编号、模块名等参数灵活调用。
  • 项目共享或个人私用:放在 .claude/commands/ 为项目级命令,整个团队都能用;放在 ~/.claude/commands/ 则是个人私有命令。

比如你定义一个 /fix-issue 命令,模板里写好修复流程:

修复 GitHub issue:$ARGUMENTS。
请执行以下步骤:
1. 用 gh issue view 获取详情;
2. 分析问题; 3. 找到相关代码; 4. 提交修复;…

在命令行输入:

/fix-issue 123

Claude 会进行 Git 操作、代码修改、开 Pull Request,整个过程自动化,省了你一大堆重复步骤(也可以选择是否自动提交)。适合重复修 issue、审查 PR、生成文档等场景。


Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠

Section titled “Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠”
  • 每个子代理心无旁骛:Sub‑Agents 是具有独立上下文的“小 Claude”,专门负责一类任务,如性能优化、测试生成、代码审查等,从不干扰主对话体。
  • 角色自定义,可复用:你可以用 /agents 命令创建子代理配置,每个代理有明确名称、描述和权限(如只读代码、运行 tests、调用 grep 等)。
  • 主代理负责统筹,并可串联多个子代理:主 Claude 根据上下文决定哪些子代理执行哪些任务,支持任务拆分、职责分明,最终结果汇总返回主对话界面。

假设你定义了几个子代理:

  • code-reviewer.md:只审查代码风格和安全问题
  • test-builder.md:专门生成单元测试
  • debugger.md:负责查错误日志并定位问题

你和 Claude 这样对话:

“请审查 auth 模块” → 主代理调用 code-reviewer “这个模块单测写一下” → 调用 test-builder “发现测试失败,找错在哪” → 调用 debugger

最后主代理把输出汇总给你。整个过程就像你请来了一队 AI 助手各司其职。


两者区别:敲门方式不同,分工视角不同

Section titled “两者区别:敲门方式不同,分工视角不同”
项目Slash‑CommandsSub‑Agents
调用方式开始输入 / 触发命令对话中自动或显式使用 /agents 调用特定子代理
使用门槛写模板即可,比较直观需要定义角色描述、工具权限、提示风格等,比较复杂
场景定位重复、标准流程类任务专业、复杂或可拆分任务(如测试、审查、调试)
输出控制每次用模板一致,比较固定可以拆多个阶段,用不同代理负责不同环节,输出更细化
可维护性模板文件易管理,适合团队共享子代理配置文件复杂,需要版本控制、同步更新

使用举例:真实工作流中的两者协同应用 👩‍💻

Section titled “使用举例:真实工作流中的两者协同应用 👩‍💻”
  1. 规范审查流程

    • 写一个 Slash‑Command /security-review,模板里自动检查代码安全点。
    • 主代理调用 security-review,并根据情况再触发 code-reviewer 子代理输出细节。
  2. 自动修 Bug + 提单

    • Slash‑Command /fix-issue 456 启动:主代理扫 GitHub issue -> 调用 debugger 查错误 -> 修改代码 -> 再调用 test-builder 写测试 -> 最后开 Pull Request。
  3. 模块协作场景

    • 创建 frontend-expert 子代理专注 React 组件优化、创建 backend-optimizer 子代理负责 API 性能。
    • 项目想做一个新 feature 时,主代理一个流程让两个子代理各自产出方案,再汇总由你决策。

Slash‑Commands 是你的快捷命令按钮,适合反复、标准化的操作 Sub‑Agents 是你背后的 AI 小团队,可拆任务、多角度、各司其职

建议你先试 Slash‑Commands:把最常做的几个操作放到命令里,团队共享模板文件。 熟练之后,再逐步引入子代理,将复杂流程拆给它们去做,主代理调度、你把控。这样可以少走弯路,也不会一开始就被工具搞晕。

如果你是小团队或短项目,一两个 Slash‑Commands 和简单子代理就很够用;长期项目或多人团队,就能慢慢扩展出完整的 AI 协作流水线。就像请了一个靠谱的 AI 助手团队,开发效率和规范性都会明显提升。

Android Studio 终于支持 Gemini Agent 自动写代码

在最新 Android Studio Narwhal Feature Drop 中,谷歌把 Gemini 完整“嵌”进 IDE——不仅能聊天,还能像“副驾”一样规划任务并批量改代码;你可以用「规则(Rules)」一键固定项目的编码规范,还能接入自己的 Gemini API Key,直接解锁 1 百万 token 的超长上下文。换句话说,Android 开发第一次拥有了真正可落地的 Agent Mode:它能读写多文件、跑 Gradle、开分支、提 PR,甚至帮你写完单元测试再自己修 bug——留给你的,只剩点头或摇头。


“写个功能要改十几处文件,怎么办?” 过去,我们只能反复切换窗口、复制路径、手动搜代码。现在,Gemini Agent Mode 接管这些机械步骤,你只需一句高层指令。Narwhal Feature Drop 的 AI 增强,正是要把 “思考” 留给人,“琐事” 交给机器


  1. 侧边栏点 Gemini → Agent,输入目标:“为首页加深色模式”。
  2. Agent 会先展示 分解计划:哪些文件要改、需要跑哪些 Gradle 任务。
  3. 每一步它都会生成、打补丁、运行测试,你可以逐条「接受 / 拒绝」。
  4. 全部通过后,一键提交 PR。

为什么更强?

  • 支持跨文件批量修改,摆脱“只能回一段代码”的瓶颈。
  • 内置 IDE 权限,可直接读写磁盘、执行脚本。
  • 计划透明,可随时插手调整。

想让 AI 永远输出 Kotlin + Jetpack Compose? 打开 Prompt Library → Rules,写下项目约定,之后每次对话都会自动套用。团队把 .idea 入库,规则就随代码一起共享,再也不用“口头提醒”。


接入 Gemini 2.5 Pro,解锁 1 M 上下文

Section titled “接入 Gemini 2.5 Pro,解锁 1 M 上下文”

免费档模型上下文只有几千 token,复杂重构经常“记不住”前后文。Narwhal 支持 “Bring Your Own Key”:在设置里填入 Gemini API Key,即可切换到 2.5 Pro,一次对话塞下整条代码链。付费 GCP 项目默认享受此特权。


  • XR 工程向导:虽然主打 XR,但底层也用到了 Gemini 逻辑提示,自动填充模板与最佳实践。
  • MCP 扩展:初版已支持 stdio 传输,可进一步与 GitHub 等外部工具联动,未来会开放完整流式协议。
  • 性能优化:本次稳定版合入了大量 Canary 用户反馈,修复上下文丢失、计划卡死等问题。

Agent Mode 不是“智能对话框”,而是一位能改代码、跑脚本、写测试的全栈小伙伴。 它把 Android Studio 变成真正意义上的 “AI IDE”。

👉 你准备先让 Agent 帮你做什么? 写单元测试?重构旧模块?留言聊聊你的想法,也许下一篇就拆解你的案例!

Claude Code Cookbook 秘籍:自动化命令 + 多角色 + 智能 Hook

打造你专属的 Claude 编程操作系统


很多人用 Claude Code 写代码,但你有没有觉得:

  • 明明 Claude 很强,却总得手把手教
  • 每次要做测试、改文档、生成 PR,全靠你提醒?
  • 或者切换角色让人手忙脚乱,效率不升反降?

最近日本工程师 @wasabeef 放出一个神级项目 —— claude-code-cookbook让 Claude Code 像“自动化开发助理”一样,干活快、反馈准、思路清。

它不是一个普通的 Prompt 模板,而是 Claude 的“扩展操作系统”。

👇 我已经试了几天,非常惊艳,强烈推荐给所有用 Claude 开发项目的朋友!


🔧 三大核心功能:解锁 Claude 的隐藏能力

Section titled “🔧 三大核心功能:解锁 Claude 的隐藏能力”

🧾 1. Commands:让 Claude 听你的命令

Section titled “🧾 1. Commands:让 Claude 听你的命令”

只要输入 /命令名,Claude 就会开始执行对应任务。

比如:

命令功能
/explain-code自动讲解代码逻辑
/fix-error根据报错,生成修复方案
/commit-message自动写 Git commit 信息
/pr-create自动生成 PR 内容
/check-prompt帮你优化提示词
/semantic-commit语义化提交,提升版本控制质量

光是这些就足够让你减少大量重复性对话。

💡 每个命令本质是 Markdown 文件,支持自定义扩展,放进 commands/ 目录即可。


🎭 2. Roles:多角色切换,Claude 化身专业顾问

Section titled “🎭 2. Roles:多角色切换,Claude 化身专业顾问”

Claude 支持像“子人格”一样切换不同角色,比如:

  • /role qa 测试工程师
  • /role mobile 移动开发专家
  • /role security 安全顾问
  • /role architect 架构师

🌟 亮点是:支持并发执行!

Terminal window
/role performance --agent
/role security --agent

Claude 会同时启动多个角色,并行分析,最终统一出具建议。 这在做大项目评审、设计审查时,非常有用。


⛓ 3. Hooks:自动脚本,开发体验拉满

Section titled “⛓ 3. Hooks:自动脚本,开发体验拉满”

你可以设定一些脚本钩子,在特定时机自动运行。

比如:

  • check-ai-commit.sh:禁止 AI 签名出现在 Git 提交中
  • preserve-file-permissions.sh:自动保存/恢复文件权限
  • auto-comment.sh:提示添加 docstring 注释

连 “任务执行完提醒你” 这种小贴心也安排上了:

Terminal window
osascript(macOS 通知脚本)

一句话,Claude 真成了一个帮你打杂 + 提醒 + 写代码的靠谱搭子。


👇 项目里自带了一套开发流程图,从任务识别到 CI 状态追踪,一气呵成:

开发流程图

你甚至可以照这个逻辑,定制自己团队的“Claude 开发流水线”。


  1. 克隆仓库:

    Terminal window
    git clone https://github.com/wasabeef/claude-code-cookbook.git ~/.claude
  2. 在 Claude 客户端设置路径

  3. 修改 settings.json 来挂载 hooks、扩展命令

🛠 添加自定义命令、角色也只需在对应文件夹写 .md,很容易上手。


🧠 总结:把 Claude 变成你的工程副驾

Section titled “🧠 总结:把 Claude 变成你的工程副驾”

Claude Code Cookbook 带来一套系统化的开发工作流,让你:

  • 高效组织项目任务,Claude 自动跟进
  • 自由切换专业角色,应对不同工作情境
  • 自动化脚本辅助,彻底解放双手

对每个用 Claude 做 serious 开发的你来说,这是提升效率与专业度的神器。


📣 你最想定制什么命令给 Claude? 欢迎在评论区分享,一起打造更聪明的 Claude 助理!


如果你喜欢这类 AI 工具技巧,记得【在看 + 转发】给你搞技术的朋友!

从 Aider 到 Crush:开源 AI 代码助手

Crush 是一款由 Charm 团队开源的 终端里「接好 LLM 就能陪你写代码」AI 代理。它支持多家大模型、跨平台、会话记忆、LSP 语义补全、MCP 可扩展插件及细粒度安全控制;安装只需一个包管理器或 go install 即可;日常用法围绕「拿到 API-Key → 启动 → 写配置 → 一键切模型」。下面按公众号排版要求,带你 5 分钟摸透 Crush。


写代码的痛点不只是“写”,更多是 找文档、切上下文、调脚本。 Crush 宣称自己是“Your new coding bestie”——把这些碎活全包办,让你专注逻辑实现。 不到一周就冲到 5k⭐,比肩 Aider、Cursor 的 CLI 竞争态势火热。


关键词解释
LLM 热插拔中途换模型,历史上下文不丢
Session项目级多会话,持久保存上下文
LSP利用语言服务器拿到 AST,让回答更贴代码
MCP自定义上下文源,HTTP/STDIO/SSE 三种插槽
.crushignore类似 .gitignore,过滤不想暴露的文件

1. 多模型一键切换 官方自带 Catwalk 模型库,涵盖 OpenAI、Anthropic、Gemini、Groq 等,还允许自定义 DeepSeek、Claude Sonnet 等配置。

2. 会话隔离 + 项目记忆 同一个项目可以开 N 个「聊天室」,测试脚本、重构和文档互不打扰,退出再进上下文仍在。

3. LSP 语义上下文 Crush 会自动调用 goplstypescript-language-server 等,给模型补充 AST 与类型信息,回答更走心。

4. MCP 可插拔能力 想让模型读数据库、访问内网 API?写一个 MCP 服务丢进 mcp 字段,HTTP/STDIO/SSE 都行。

5. Everywhere CLI macOS、Linux、Windows/WSL 乃至 *BSD 一条命令就跑起来。

6. 安全可控 默认任何 Shell 指令都会二次确认;也可在 permissions.allowed_tools 白名单放行,或暴力 --yolo 跳过提示(慎用)。

Homebrew brew install charmbracelet/tap/crush npm npm i -g @charmland/crush Go go install github.com/charmbracelet/crush@latest

装完输入 crush,首次会提示粘贴 API-Key。支持 OPENAI_API_KEYANTHROPIC_API_KEY 等环境变量免输入。

  1. 启动

    Terminal window
    crush

    选择喜欢的模型,写句「Refactor this Go file」。

  2. 项目配置 在仓库根中新建 .crush.json,示例:

    {
    "$schema": "https://charm.land/crush.json",
    "lsp": { "go": { "command": "gopls" } },
    "providers": { "deepseek": { "type": "openai", "base_url": "...", "api_key": "$DEEPSEEK_API_KEY" } }
    }

3. 忽略杂物 .crushignore 里写 node_modules/,避免大模型扫无用文件。 4. 跟踪日志 crush logs --follow 实时看模型调用 & 代价。

  • Session 魔法crush session new docs 专门写文档;crush session switch bugfix 回到调试现场。
  • 模型热插/model claude-3;回答风格立马切 Shakespeare。
  • 成本透明:配置里可写 cost_per_1m_in/out,Crush 会估算每轮花费。
  • 开源社区活跃:Issues 已有 100+ 讨论,PR 24h 内 merge,非常友好。
  • 对标 Aider/Cursor:Det-Eng Weekly 点名它是 Windsurf/Cursor 的开源替代品,体验丝滑。

Crush = 终端 + LLM + 你的工具链 的完美黏合剂。 如果你习惯 tmux/vim 或 VS Code 内置终端,Crush 会让「写-跑-改」循环少敲无数命令。

Figma IPO首日涨幅达 250%:AI 设计工具独角兽建议在 90-110 美元区间

Figma于2025年7月31日在纽约证券交易所正式上市(NYSE: FIG),创下了2025年最大科技IPO记录。公司以33美元定价发行3600万股,但首日表现超出预期:开盘价85美元(涨幅157%),盘中最高触及125美元,收盘115.5美元,首日涨幅达250%,收盘市值563亿美元

通过与2020年Snowflake(SNOW)IPO的深度对比分析,我们发现Figma在更加严峻的宏观环境下依然实现了优异表现,体现出其独特的市场地位和投资价值。

本报告建议:短期谨慎观望解禁压力,中长期看好AI时代设计协作平台价值重估,建议等待解禁期调整后在90-110美元区间分批建仓,目标市值700-800亿美元

Figma IPO首日表现突破市场预期

  • IPO定价:33美元(发行区间最终从25-28美元上调至30-32美元)
  • 开盘表现:85美元,较IPO价格溢价157%
  • 日内波动:最高125美元(+279%),最低75美元(+127%)
  • 收盘价格:115.5美元,首日涨幅250%
  • 成交量:超过2000万股,换手率约56%
  • 收盘市值:563亿美元

认购热度空前

  • 超额认购倍数达到40倍以上,显示机构投资者强烈需求
  • 采用限价IPO模式,要求投资者提交具体报价而非市价认购
  • 首日暴涨反映市场对设计协作平台在AI时代价值的重新认知

与预期的偏离

  • 市场原预期温和上涨(20-50%),实际表现远超预期
  • 高涨幅主要驱动因素:AI集成能力、市场垄断地位、盈利能力改善
环境因素Figma (2025年7月)Snowflake (2020年9月)
联邦利率4.25-4.5%(高利率环境)0-0.25%(零利率政策)
通胀水平持续通胀担忧刺激政策推动经济复苏
市场流动性紧缩周期中的谨慎投资极度宽松的货币环境
科技股情绪AI驱动的结构性复苏疫情受益的全面上涨

2025年IPO市场特征

  • IPO市场正在复苏但仍相对谨慎
  • 投资者更加关注盈利能力和现金流
  • AI相关公司获得估值溢价
  • 高质量SaaS公司重新受到青睐

2020年IPO黄金期

  • 全球IPO融资额接近历史高位
  • 美联储”无上限”量化宽松
  • 科技股享受疫情红利
  • 市场情绪极度乐观

三、公司基本面对比:Figma vs Snowflake

Section titled “三、公司基本面对比:Figma vs Snowflake”
指标维度Figma (2025)Snowflake (2020)
营收规模~10亿美元(年化)~5亿美元(年化)
增长率46%174%
毛利率91%~60%
客户数量45万企业3,117个
市场渗透设计工具市场70%份额云数仓新兴市场
竞争壁垒云端协作+AI集成存算分离架构

Figma客户特征

  • 企业客户:45万注册企业,年付费$10万+客户1031家(同比增长47%)
  • 用户构成:月活1300万,其中67%为非设计师用户
  • 国际化程度:53%收入来自海外市场
  • 标杆客户:Netflix、Stripe、多邻国等知名企业

Snowflake客户对比

  • 企业客户:3,117个客户(IPO时),福布斯500强146家
  • 大客户增长:年收入$100万+客户数量快速增长
  • 地域分布:主要集中在美国市场
  • 客户留存:NDR高达158%

3.3 技术护城河分析Figma技术优势

Section titled “3.3 技术护城河分析Figma技术优势:”
  • 云端原生:无需本地安装,浏览器即用
  • 实时协作:多人同时编辑,版本自动同步
  • AI深度集成:150+次提及AI功能,显著提升设计效率
  • 生态系统:完整的设计到开发工作流

Snowflake技术护城河

  • 存算分离:独特的架构设计
  • 多云支持:跨AWS、Azure、GCP部署
  • 弹性计算:按需扩缩容能力
  • 数据共享:跨组织安全数据共享
财务指标FigmaSnowflake
上市时估值$563亿$707亿
P/S倍数56倍50倍
盈利状态2025Q1实现盈利持续亏损状态
现金状况10.7亿美元现金充足现金储备
NDR132%158%

Figma收入质量

  • 订阅制模式:可预测性强的递归收入
  • 毛利率优势:91%毛利率远超SaaS行业平均
  • 客户粘性:132%净美元留存率
  • 经营杠杆:规模效应开始显现

Snowflake收入特征

  • 消费型定价:基于使用量的灵活定价
  • 高速增长:174%增长率但面临基数扩大压力
  • 投入密集:销售费用率高达44%
  • 研发投入:研发费用占收入38-45%

Figma现金流健康度

  • 经营现金流利润率28%
  • 2025Q1实现净利润4500万美元
  • 自由现金流持续改善
  • AI投入期后盈利能力有望进一步提升

Snowflake现金流对比

  • 经营现金流持续为正
  • 自由现金流8.1亿美元(2024财年)
  • 净亏损持续但收窄趋势
  • 高增长高投入的典型模式

五、资本市场表现与股价走势类比预测

Section titled “五、资本市场表现与股价走势类比预测”

Snowflake历史股价表现

  • IPO首日:120美元→253.93美元(+111.6%)
  • 历史高点:2021年11月触及401.89美元(IPO后13个月)
  • 当前水平:约220美元(2025年7月)
  • 关键节点:巴菲特2024年Q2清仓,股价一度回落至IPO价格

解禁时间表预测

  • IPO后6个月:员工股权开始解禁
  • IPO后12个月:主要投资机构解禁
  • IPO后18个月:创始人股权完全解禁

解禁压力评估

  • 创始人Dylan Field持有超75%投票权,减持动机相对较低
  • 机构投资者可能面临退出压力
  • 员工期权解禁或带来短期波动

基准情景(概率60%)

  • 目标价位:150-180美元
  • 驱动因素:AI功能商业化成功,客户付费意愿提升
  • 风险因素:解禁压力,宏观环境变化

乐观情景(概率25%)

  • 目标价位:200-250美元
  • 催化剂:AI时代设计工具价值重估,Adobe收购传言重燃
  • 市值目标:700-800亿美元

悲观情景(概率15%)

  • 目标价位:80-120美元
  • 风险触发:竞争加剧,经济衰退,AI替代威胁

竞争风险

  • Adobe等传统软件巨头反击
  • 新兴AI设计工具挑战
  • 开源替代方案普及

技术风险

  • AI发展可能颠覆传统设计流程
  • 云端协作优势被追赶
  • 技术更新换代风险

市场风险

  • 高利率环境持续
  • 科技股整体估值回调
  • 宏观经济衰退影响

短期策略(0-6个月)

  • 建议观望:等待解禁期波动后再行布局
  • 关键价位:90-110美元区间为较好买入时机
  • 仓位控制:初期建仓不超过3-5%

中期策略(6-18个月)

  • 逐步加仓:AI功能商业化验证后增加配置
  • 目标仓位:5-8%权重
  • 止损设置:跌破75美元考虑减仓

长期策略(18个月以上)

  • 核心持仓:AI时代设计协作平台的稀缺标的
  • 估值目标:700-800亿美元市值合理
  • 持有逻辑:数字化转型+AI普及的双重红利

Figma IPO成功验证了其在AI时代设计协作领域的独特价值。与Snowflake相比,Figma在更加严峻的宏观环境下实现了更高的首日涨幅,体现出其:

  1. 更优质的财务基本面:91%毛利率和已实现盈利
  2. 更强的技术护城河:云端协作+AI集成的双重优势
  3. 更广阔的市场空间:设计民主化和AI工具普及的时代机遇

投资建议:短期谨慎观望,中长期积极看好。建议等待解禁期调整后在90-110美元区间分批建仓,中期目标价160-200美元,长期看好其成为AI时代设计协作领域的平台型公司,合理估值700-800亿美元。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Claude Code 不写代码,用来管理我的日常生活

还在用 Claude Code 写代码?我已经用 Claude Code 管人生了。

这不是段子,我用 Claude Code 打造了一套“生活操作系统”,轻松管理日常、抓住灵感、追踪目标,连心理状态都照顾到了。

只要 10 分钟设置好,Claude 每天就能帮我完成很多琐碎但重要的事。


👀 五个例子,看懂 Claude 有多厉害

Section titled “👀 五个例子,看懂 Claude 有多厉害”

Claude 每周自动生成我的成长仪表板:比如我的视频播放量、写作字数、收入变化……

📌 用法:用 /weekly check-in 命令,Claude 会生成图表 + 重点分析,甚至给我推荐内容选题!

亮点:像个不抱怨的私人教练,每周夸我一波,还顺便提点建议。


每天花 2 分钟,Claude 引导我写下当天的收获、反思和感受,还能追踪我的情绪和习惯。

📌 用法:运行 /daily check-in,回答几个问题,日记就自动整理好了。

亮点:培养自我觉察和感恩习惯,远离情绪内耗。


我只需要贴几个竞品链接,Claude 就能帮我写出自己的内容初稿。

📌 用法:用 /newsletter researcher 命令,它会分析我的风格,结合我的特点,生成新草稿。

亮点:节省 80% 选题和调研时间,灵感不用等,Claude 帮我找!


零碎的笔记太多?Claude 自动整理,变成思维导图或文章提纲,还能挖掘隐藏灵感。

📌 用法:把笔记导入 Claude,运行 /brain dump analysis 命令即可。

亮点:让“碎片笔记”变身“商业机会”。


Claude 会根据我的兴趣,汇总行业最新动态、新闻、创作灵感,每天早上准时送达。

📌 用法:设置 /daily brief 命令,它会自动搜索并整理。

亮点:不用刷 X / Twitter / 朋友圈,Claude 一站打包送上。


🧰 10 分钟打造我的「生活操作系统」

Section titled “🧰 10 分钟打造我的「生活操作系统」”
  1. 准备环境 安装 Claude Code(推荐使用 VS Code, Cursor 等),新建个人信息 markdown 文件。

  2. 初始化配置 执行 /init 命令,Claude 会生成规则文件。

  3. 设置 Slash 命令 从 Google Docs 复制提示词,比如 /weekly check-in/daily brief 等。

  4. 运行和定制 每天/每周运行这些命令,Claude 自动执行。我还可以让它生成更多自定义 Agent!


  • 节省时间:每周省下数小时,让 AI 替我搞定琐事。
  • 高度个性化:Claude Code 会根据我的兴趣和工作风格定制输出。
  • 技术门槛低:不需要写代码,复制提示词就能用。
  • 无限扩展:可以扩展成会议记录助手、待办清单生成器……

  • 刚上手也能玩:提示词非常清晰,新手照做即可。
  • 根据自己定制:试着加入我工作中常用的工具、流程,Claude Code 很擅长做“个性化助手”。
  • 记得跑起来!:把命令设成每天自动运行,Claude Code 会越来越懂我。

你最想 Claude Code 替你做什么?

Kombai:首个专为前端开发打造支持 Figma 的 AI Agent

Kombai 把「懂设计、懂组件、懂代码库」熔在一起,用专门为前端调校的上下文与工具链,让 AI 真正能在 500 K+ 行 的老仓库里新增页面、跑通编译,还能给你可视化预览——结果是编译通过率 96 %、代码评审得分 72 %,把同场 PK 的通用代理远远甩在身后。

  • 第一款专为前端开发定制的 AI Agent,不碰后端、不改数据库,只盯 UI & UX。
  • 产品团队把过去做 Figma-to-Code 的技术沉淀,升级成完整的“设计→计划→编码→预览”流水线。
  • 支持 VS Code、Cursor、Windsurf 插件,一键装好就能用。

通用代理常常漏掉组件库细节、写出不能编译的代码;Kombai 内置对 30 + 常见库的 RAG 规则和最佳实践,生成代码就像“资深前端”复用组件一样自然。

把 Figma、截图、文字都能拆成「可复用 section → 组件 → 样式」三层结构,再转成 React / Vue / Svelte 代码,准确率比同级 LLM + MCP 方案高出 20 % 以上。

Kombai 会先扫描仓库,识别主题、组件、路由等“前端元数据”,再用搜索 + 索引做精准片段检索,避免把不相关文件拉进上下文。

  • 可编辑开发计划:大任务先生成 markdown 计划,你可以改后再让 AI 开工。
  • Sandbox 预览 & 自动修复:生成后自动起本地服务器,发现 TS / Lint 报错就自愈。
  • 无写入默认:除非你点 Save,AI 不会改动本地文件,安全可回滚。

在 200+ 真实前端任务 Benchmark 里,Kombai 编译通过率 96 %、功能实现率 43 %,全面领先 Gemini 2.5 Pro + Agent、Claude Sonnet 4 + Agent 等组合。


丢一份 Figma,Kombai 自动拆层、识别资产,输出与你项目栈匹配的文件结构;复杂设计也能保持像素级还原。

官方演示里,Kombai 在 OSS 项目 0.5 M 行 代码中加入完整 “Roles & Permissions” 页面,仅用两轮对话搞定。

切换到 Ask,提问“这个组件库 Button 的变体有哪些?”——Agent 只读不写,帮你熟悉仓库结构。

点击 Run in Sandbox,在浏览器里即时预览;发现对齐或交互不合心意,直接自然语言让 Kombai 重新改。


步骤操作
安装在 VS Code 扩展市场搜索 Kombai – AI Agent for Frontend Devs 并安装。
登录通过弹出的浏览器页注册 / 登录 Kombai 账号。
配栈设置框架(Next.js / React 19 / Vue 3…)、UI 库、状态管理等。
输入支持 Figma / 图片 / 文字 三种输入类型。
审核计划确认或编辑 AI 生成的开发计划,然后点 Approve Plan & Start Coding
预览 & 保存预览 OK 后,挑选文件保存回本地或新建仓库。

  • 想把 设计—开发 链路压缩到分钟级的独立开发者
  • 维护 大型 Mono-repo、需要持续重构的团队
  • 出海项目,追求 高质量 UI 体验 又没人手写前端

前端的难点,从来不是 “写几行 HTML”,而是理解设计、复用组件、保证规范一致。Kombai 把这些“经验活”都交给 AI,你只管挑最终效果。

你会在哪个项目里试一把?评论区聊聊你的想法!

对标n8n, Dify, Coze? Google Opal 用一句话生成 AI 工作流

Google 再放大招!Opal 把「写一句话→拖方块」的神操作带进 AI 工作流,一分钱不用就能造出能跑的小应用。 上线不到一周,它已经掀起 n8n/Zapier 要失眠 的热议:描述需求 → AI 自动串联 Gemini 模型、搜索、外部工具,再给你一个可视化流程图,随时拖拽微调,还能一键分享给同事。


  • Google Labs 的全新实验产品,主打「自然语言 + 可视化」双模式,现阶段 100% 免费,且仅限美国账号内测
  • 定位为 AI mini-app builder:把输入框、Prompt、Gemini 模型调用、工具 API 等步骤自动排成流程节点。

你描述:「把会议纪要变成行动清单」。 Opal 立刻生成“上传纪要 → Gemini 摘要 → 生成 todo → 输出邮件”四个节点,流程一目了然。


自然语言就能拉通多个模型与工具,省掉代码和 YAML。

想插入新步骤、改 Prompt?直接拖方块或再打一句指令即可。

官方自带 Starter Gallery,博客写手、缩略图生成器、数据爬虫等模板随取随改。

生成链接后,同事用自己的 Google 账户即可体验,方便协作测试。

目前跑在 Google 后端,不用自己养服务器,适合灵感验证和团队内部 Demo。


场景描述一句话Opal 自动生成的节点
内容创作“写一篇 800 字 SEO 友好博客”关键词→Gemini 撰稿→SEO 校对→发布
销售跟进“把 CRM 新线索同步到 Slack 并写个跟进邮件草稿”Webhook→Gemini→Slack API→Gmail 下草稿
产品运营“分析用户反馈并生成周报”CSV 上传→Gemini 情感分析→图表→Google Docs

平均 10 分钟就能跑通一个最小可用版本


维度Opaln8n
上手门槛纯自然语言,面向非技术同学需要理解节点参数、可能写 JS
AI 模型原生接入 Gemini,Prompt 可视化通过第三方插件或自配
价格当前免费,云托管社区版免费,商用需自托管或付费
局限仅限 US Beta,暂不支持自定义代码灵活度高但学习曲线陡峭

  1. 加入 Google Labs 等候名单:登录 labs.google.com → 申请 Opal 内测。
  2. Describe:在对话框输入需求,按回车。
  3. Refine & Share:在视觉流程里拖拽微调 → 点击 Share 生成链接。

  • 地域限制:目前仅支持美国账号,国内需科学方式体验。
  • 扩展性:暂不开放自定义函数,复杂业务可能受限。
  • 机会:流程模板市场、Prompt 组件库、团队协作版或将成为下一波红利。

Opal 让“AI 应用开发”从写代码降级为写一句话 + 拖方块。 你想到的任何自动化点子,基本都能在午休前跑起来。**你会拿它先做什么?**欢迎评论区聊聊。

Prompt Optimizer 提示词优化器:让 AI 指令一键“开挂”


写提示词就像写诗——灵感来了却难以落笔。Prompt Optimizer 把这种“玄学”变成“工程学”:一句原始指令,点一下就拆解、补全、格式化,让大模型输出更稳、更准、更省钱。


  • 系统 / 用户双通道优化:同时改写 System PromptUser Prompt,提高上下文一致性。
  • 实时对比:左右分屏查看优化前后效果,新手也能立刻感受差距。
  • 多模型集成:内置 OpenAI、Gemini、DeepSeek、智谱等主流接口,想省 API 费可切小模型。
  • 纯前端 & 本地存储:数据不出浏览器,私活也能放心优化。
  • MCP 服务器:Docker 镜像自带 Model Context Protocol,可无缝连上 Claude Desktop 等工具。

打开 https://prompt.always200.com/,输入提示词,点 Optimize,立刻看到重写结果。零门槛、零配置。

Win / macOS / Linux 一键安装,自动更新、无跨域,让本地 Ollama 也能吃到优化后指令。

写文档时随手选中文本 → 右键 Prompt Optimizer,灵感碎片直接升级为结构化指令。

Terminal window
docker run -d -p 8081:80 linshen/prompt-optimizer

五秒起容器,内网部署、加密访问,团队一起用也安全。


典型需求优化前优化后结果
小模型角色扮演“当侦探破案”加入背景设定、输出格式低成本 LLM 也能沉浸式对话
知识抽取“帮我把文章变成三元组”明确字段、示例、边界条件输出 JSON 100% 可解析
诗歌创作“写首春天的诗”主题、情感、修辞、行数AI 作品更贴合个人口味

  1. 挑模型:点右上 ⚙️Model Manager,填 API Key,选最便宜那一档先试。
  2. 写原始提示:别怕简陋,工具会帮你拆句、加细节。
  3. 一键优化 & 对比:看左侧原句、右侧优化句,满意就复制粘贴给 LLM 生产。

代码 MIT 开源,11k⭐、1.4k Fork;数据只在本地或你自建的容器里流转,没有第三方云端。


作者在 Roadmap 中透露:将引入 Prompt 市场团队协作一键 A/B 测试 等功能,社区也在贡献更多模型适配。


下一次卡在“怎么写提示词”时,别憋——丢给 Prompt Optimizer 试试

你觉得这种“提示词自动润色”会彻底改变你的工作流吗?欢迎在评论区聊聊 🚀

对标 v0/Lovable/Bolt:本地跑 Dyad AI 开发应用


还在为 v0/Lovable/Bolt 的额度、收费、网络延迟抓狂?Dyad 把同样的 AI 造 app 魔法直接搬到你电脑本地,免费、开源、无限制。下载即用,不用注册账号,也没有云端锁定风险。今天这篇文章带你 10 分钟搞懂它的亮点、安装步骤与高阶玩法,让你的灵感马上落地。


  • 定位:本地运行的 AI App Builder,与 v0、Lovable、Bolt 一样能「一句话生成前端 + 后端 + 数据库 + Auth」,但所有代码都存你机器里,私有、可控。
  • 社区热度:GitHub 2.4k⭐、Product Hunt 4.9/5 评价,一周下载量破 10 万。
  • 目标用户:想要快速验证点子、又对数据隐私和成本敏感的开发者 / 设计师 / 创业者。

  • 运行在 macOS / Windows,可离线使用,避免云端延迟与合规担忧。
  • 支持 Ollama 本地大模型,CPU/GPU 跑得动就能完全离线生成代码。
  • 深度集成 Supabase:一句「加登录」就生成 Auth、PostgreSQL 表和 Edge Functions。
  • RLS 默认开启,安全策略 AI 自动写好,你只需审核。
  • 内置 Auto 智能调度,可按需切换 OpenAI、Gemini、Claude、OpenRouter 等模型;免费额度用完就换家供应商。
  • 本地模型与云端模型无缝同屏对比,随时热切换。
  • 一键推送 GitHub,Dyad 自动生成仓库并处理 Git 流程;进阶用户可继续用 Git CLI / Desktop)。
  • 内置预览服务器,实时热更新,支持版本回滚、分支实验。
  • Apache-2.0 许可证,社区参与度高,问题响应快。
  • Pro / Max 付费仅加速 AI 调用,不限制核心功能。

步骤操作提示语示例
① 下载官网选择 v0.14 稳定版,Mac/Win 双击即装[配图:下载按钮]
② 安装 Node.js未安装会在首页 banner 提醒,点击跳转n/a
③ 填 API Key推荐先用 Gemini 免费 250 条/天额度在设置里粘贴 Key
④ 新建 App聊天框输入「做一个待办清单支持拖拽排序」“Build a Kanban todo app”
⑤ 审核 & 预览AI 生成代码 → 点击 Approve → 右侧实时预览[配图:预览界面]

300 字配图:可截屏安装界面 + 预览窗口


只需在聊天窗口说「接 Supabase 并加邮箱登录」→ 浏览器弹窗授权 → 回到 Dyad 即完成链接。此时数据库表、Auth、Server Functions 都已就绪。

进入 App Details → Sync to GitHub,Dyad 会自动 push 并生成 Public/Private Repo。发布到 Vercel 的教程在 Publishing your App 页面里一步步跟着走即可)。

在右上角模型下拉中选择 Claude-SonnetGPT-4.1 或本地 Ollama/Llama-3,观察 UI 与代码质量差异。不同模型互补,复杂项目常用双模型 AB 测试。

维度Dyadv0 / Lovable / Bolt / Replit
部署本地+可云纯云端
私密性代码不出机器需上传
成本免费不限流额度或订阅费
后端Supabase 一键整合多数只管前端
模型BYOK / Local固定供应商

详细对比见官方 Comparison 文档,社区帖子也认可 “Dyad = 无锁定版 v0”。


在 AI 生产力井喷的 2025,下一个爆款应用可能只差一条 prompt。Dyad 把大厂才有的端到端开发体验塞进桌面应用,重新把速度、隐私、成本交还给个人开发者。 如果你也想试试「一句话造产品」的爽感,现在就下载,实现你的灵感!

Claude Code 太贵用不起?自建账号拼车共享是趋势

Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!

Section titled “Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!”
  • 8 月 28 日起,Claude Code 订阅新增「按周计量」;官方点名要打击 24/7 后台跑脚本账号共享
  • Anthropic 估算 不到 5 % 用户受影响,但重度开发者大概率中招
  • 痛点:多人共用一号 → 配额飙升 → 提前触顶 → 团队开发被迫停摆。

你也担心突然「被停机」吗?留言聊聊你的踩坑经历👇


二、为什么选 claude-relay-service?

Section titled “二、为什么选 claude-relay-service?”
功能场景价值
多账户池 & 自动轮换拼车 N 号也不怕封顶
OpenAI/Claude 双格式 API老项目零改动接入
一键 OAuth 授权新账号 30 秒入池,再也不用手动 Cookie
按 Key 计费统计精准核算谁用掉多少 token,分钱不再吵架
客户端白名单防止 Key 外泄,被脚本薅爆

风险提示:自建中转可能违反 Anthropic ToS,请自行承担责任。


三、3 分钟 Docker-Compose 快装指南

Section titled “三、3 分钟 Docker-Compose 快装指南”

跟着抄就能跑

准备项目

Terminal window
# 克隆项目
git clone https://github.com/Wei-Shaw/claude-relay-service.git
# 进入目录
cd claude-relay-service
# 复制 .env.example
cp .env.example .env

修改 .env(务必改成随机值)

# 必填:安全密钥(请修改为随机值)
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:管理员凭据
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

一键启动

Terminal window
docker-compose up -d

启动完,浏览器打开 http://<服务器IP>:3000/web,如本地 http://localhost:3000/web,日志里能看到自动生成/自定义的管理员账号。

登陆后 Web 界面预览效果:

管理面板

API Keys 管理

账号管理

使用指南

  • 一人一 Key:在后台「API Keys」页为每位同事生成密钥,可设速率/模型限额防滥用。

  • 环境变量:环境变量里把 ANTHROPIC_BASE_URL 指向 http://localhost:3000/api/, ANTHROPIC_AUTH_TOKEN 指向上面生成的密钥,不改业务代码。

Terminal window
# 环境变量
export ANTHROPIC_BASE_URL="http://localhost:3000/api/"
export ANTHROPIC_AUTH_TOKEN="cr_<your_token>"
# 启动 Claude Code
claude
  • 监控面板:实时看 token 消耗,配额预警提前拉闸,避免突然触顶。

价格/周期备注
2核4G 轻量云¥30-60/月跑 Relay+Redis 足够
Claude Max 200 刀可多人拼人均成本随人数递减
域名+CDN选配需公网 HTTPS

合规提醒:官方已明确禁止转售、共享账户;若被检测到异常流量,账号可能被封或限流。


现在就部署自家「小中继」,把配额握在自己手里。 转发给还在担心被限流的同事,一起薅到极致!


你准备怎么分配 Key & 配额?欢迎在评论区支招~

单词默写不犯难:ChatGPT 给出小学三年级每天 1 小时英语词汇训练方案

ChatGPT 设计了一个适合小学三年级学生的英语单词默写训练方案:每天花1小时,结合画画、游戏、家长互动,重点解决拼写记不住和默写紧张的问题,并确保每周掌握单词量合理有效。

针对一位三年级小学生的英语单词默写需求,我们设计了一套科学有趣的训练方案。该学生每周计划掌握约70个新单词,但根据科学建议我们会进行调整。学生每天有1小时练习时间,父母可陪同参与。孩子喜欢画画和游戏,目前主要困难是记不住单词拼写,在默写时容易紧张。下面我们将从每周单词数量、每日练习安排、记忆技巧、家长协助方法、缓解默写紧张的游戏,以及每周复习测验六个方面进行说明。

一、每周新单词数量的科学建议

Section titled “一、每周新单词数量的科学建议”

研究表明,每周集中学习10~12个新单词效果更佳。过多的新词会超出孩子的记忆负荷,导致遗忘率上升。以中国小学英语新课标为例,小学阶段总词汇量约505个基本单词。新版三年级教材上册包含111个单词(旧版为64个)。按这个速度计算,小学生平均每周只需掌握5~10个单词左右。

科学建议:将每周新学单词数量调整到20~30个左右更为合理,可根据孩子的接受能力浮动。例如每周学习25个新词,每天约5个。这样既能保证孩子有足够重复巩固的机会,又不会因为数量过多而产生畏难情绪。重质不重量,确保孩子真正掌握每个单词的拼写和用法,比一味追求数量更重要。

二、每天1小时练习时间安排(听、说、读、写、玩)

Section titled “二、每天1小时练习时间安排(听、说、读、写、玩)”

每天1小时的练习需要合理分配听、说、读、写、玩的环节,做到动静结合、张弛有度。下面以表格形式给出每日练习安排建议:

时间段活动内容(技能侧重)说明与目的
5 分钟热身与回顾(听、说)父母朗读前一天学过的单词或短语,孩子跟着出发音。一边拍手或做动作一边念,可以调动兴趣。通过快速回顾已学词汇,激活记忆,为当天学习做好准备。
10 分钟新单词导入(听、说)利用录音或家长示范,3~5个新单词的正确发音,并跟读练习发音。家长可将单词放入简短句子中读给孩子听,帮助理解词义。孩子在这一环节主要培养听音辨字和开口模仿,初步认识新词。
15 分钟认读与理解(读、说、玩)出示新单词的卡片或写在白板上,让孩子出单词并说出中文含义。结合图片或孩子自己画一个小插图,加深视觉联想记忆。可以玩“小老师”游戏,让孩子给每个单词造句或讲小故事,边说边记,增强理解。这一环节兼顾阅读认知和口语表达,并融入了游戏元素。
15 分钟书写练习(写)让孩子在笔记本上新单词,每个单词用拼音或分音节划分音节后书写三遍。例如“because”划分为be-cause再书写。可以变换有趣方式,如彩虹字母书写(每个字母用不同颜色)、在沙盘中写字母等,增加趣味。家长要及时检查书写,纠正拼写错误,指导孩子注意字母顺序。通过书写加深单词的拼写记忆。
10 分钟趣味单词游戏(听、读、写、玩)用游戏巩固当天所学。例如:进行拼写接龙游戏,家长说一个单词,孩子写下第一个字母,家长续写第二个字母,轮流拼出单词;或者玩“字母消失”游戏:将单词写出后让孩子闭眼,家长擦去其中一个字母,孩子睁眼后说出缺了哪个字母。也可玩单词拼图、字母卡片拼单词、听写抢答等。通过游戏在轻松氛围中强化拼写。
5 分钟小测验与反馈(听、写)家长口头提问2~3个当日新学单词,请孩子尝试默写。尽量模拟学校默写形式,但气氛轻松。然后一起对照检查拼写是否正确。对写对的给予表扬,写错的不要批评,而是和孩子一起拼读纠正。最后用贴纸或笑脸做好记录。这个环节帮助孩子及时了解掌握情况,做到当日查漏补缺。

以上安排总计约60分钟,各环节时间可根据孩子注意力适当调整。每天的练习既涵盖听说读写各方面,又穿插了游戏和休息转换,保证孩子始终保持兴趣和专注度。在家长陪同下,以鼓励和互动为主,营造愉快的学习氛围。

三、适合该年龄段的拼写记忆技巧

Section titled “三、适合该年龄段的拼写记忆技巧”

三年级孩子正处于形象思维和兴趣导向的年龄段,可以采用多种趣味记忆技巧来帮助记忆单词拼写。以下是几种有效的方法:

  • 图像联想记忆:利用孩子爱画画的特点,把单词和图像联系起来记忆。例如,记忆单词“elephant”时,可以让孩子画一头大象,在大象身体上标出“elephant”单词的字母;看到图像就能联想到字母拼写。对于抽象词,可以借助谐音或形象化的方法,将单词的形状与熟悉的事物联系,如把单词看成一幅画。这种视觉化记忆能调动大脑的图像记忆能力,提升记忆效果。

  • 分音节拼读记法:将长单词拆分成易读的音节或拼音块,一部分一部分地记。比如“remember”可以拆为“re-mem-ber”,每次记住其中一节,再连起来拼写。对于多音节单词,也可以编句子帮助记忆每个音节的发音和顺序。例如记忆“mammoth”(猛犸象)时,用一句话“My Aunt Mary’s Manly Hat”来帮助记忆mam-moth两部分(每个单词的首字母对应原单词的拼写)。这种拆分法让长单词变“短”,降低记忆难度。

  • 有趣口诀与首字母助记:编创顺口的句子或口诀,利用单词字母的首字母串联成一句话,加深印象。例如,单词“because”的7个字母B-E-C-A-U-S-E,可以对应一句英语短语:“Big Elephants Can Always Understand Small Elephants”(大象总能理解小象)。滑稽的句子既包含了单词的每个字母开头,又有意义便于记忆,让孩子在乐趣中牢记拼写。家长也可和孩子一起,用中文或英文为容易拼错的单词编造小口诀,越有画面感和趣味性越好。

  • 押韵歌谣记忆:利用儿歌或韵文来记单词拼写和发音。把单词的拼写规则编进简单的歌谣中,或者寻找单词尾音相同的一组词一起念。如通过儿歌记住“字母Q后面总跟着U”的规则,或者把字母表歌用来记拼写。押韵可以帮助儿童更好地感知音律和字母模式。例如让孩子发现同韵词的规律:掌握了“ball”的拼写,就很容易记住“tall, call, fall, hall”等押韵词的拼写。借助熟悉的旋律唱出单词字母,也是孩子喜闻乐见的记忆方式。

  • 多感官记忆:鼓励孩子用听觉、触觉和运动参与背单词。例如,边拍手或跺脚边拼读单词节奏;用彩色橡皮泥捏出单词的字母形状;在纸上先描红字母再尝试默写;闭上眼用手指在空中或手心写字母。这些多感官参与的方法能增强孩子对字母序列的肌肉记忆和感知记忆,让背单词不再只是静态的眼睛和大脑活动。孩子喜欢动手动脑,玩中学会更加牢固。

综上,结合图像、声音、节奏、肢体动作等方法,能够大大提高拼写记忆的效率和乐趣。家长不妨和孩子一起创造属于自己的记忆小技巧,让记单词变成一件充满创意的事情。

父母的陪伴和指导在孩子的单词学习中非常重要。家长可以采取以下方式来协助孩子高效、有趣地学习:

  • 参与游戏,共同学习:利用孩子喜欢游戏的特点,家长可以扮演游戏伙伴。例如一起玩“拼字接龙”或“拼写雪人(Hangman改编)”等游戏,让学习过程充满欢笑。家长也可以自制奖励机制,比如拼对一个词就给孩子一个小贴纸或画一颗星星,以游戏奖励机制激发动力。

  • 朗读单词,引导发音:家长每天陪孩子朗读单词表或例句,给孩子做正确发音示范。在孩子拼读时,耐心倾听并及时纠正发音与拼写错误。可以采用分音节拼读的方式一块块拼,并鼓励孩子大胆开口模仿。通过亲子共读,孩子既练习了听说能力,又加深了对单词的记忆。

  • 创设语言环境:在日常生活中融入所学单词,加深印象。家长可以在家里贴上英语标签(如冰箱上贴“fridge”),或在看到相关物品时用英语说出,让孩子情景复习。散步时玩“我看见…”游戏(I spy),轮流说出看到的物品英语单词。让孩子体会到单词不是为了默写而学,而是可以实际使用的语言。

  • 鼓励和正向反馈:在学习过程中,家长应多给予积极评价。当孩子拼对一个单词时,及时表扬:“你记得真棒!这些字母顺序都对了。”对于拼错的单词,避免责备,可说:“这个单词有点难,我们再试一次好吗?”并指出其中关键字母让孩子注意。可以允许孩子先按发音拼写尝试(哪怕写成“bkz”表示 because 这样的拼音拼写也没关系),认可他们的努力再逐步纠正。温暖的鼓励能建立孩子的信心,减少对默写的恐惧。

  • 协助制作学习工具:家长可以和孩子一起动手制作单词卡片、单词海报或词汇本。例如为容易混淆的单词建立一个“错词本”,每次错词写在本子上,日后翻看巩固。或者像前文提到的“海报单词”方法:每个难词画张海报,集齐5个✔️就算过关。家长和孩子一起DIY学习用具,不仅增加亲子互动,还能让孩子更乐于使用这些工具自我检测。

总之,家长的陪伴应当是引导者和伙伴的角色,通过一起读、一起玩、一起制作,在不知不觉中帮助孩子掌握单词。创造轻松的家庭学习氛围,让孩子感受到父母的支持和学习的乐趣,比起严厉督促更能提高效率。

五、缓解默写紧张的练习活动与小游戏

Section titled “五、缓解默写紧张的练习活动与小游戏”

默写时的紧张往往来自对错误的恐惧和陌生的考试氛围。我们可以设计一些有针对性的练习和小游戏,帮助孩子在模拟中建立信心,在趣味中克服紧张。

通过将拼写练习融入游戏和互动,比如让孩子用字母积木拼单词等方式,可以营造轻松的练习环境,减轻默写带来的压力。家长的陪伴和鼓励使孩子在练习中保持愉快的心情,有助于提高记忆效果和信心。

  • 角色扮演默写:家长和孩子交换角色,玩“老师和学生”的游戏。让孩子当一次“小老师”,给家长出单词默写题目。家长故意写错几个单词,请“小老师”来批改打分。幽默的角色互换能让孩子体会到当考官而不是考生的感觉,放松对考试的紧张。同时在批改中再次巩固了单词。当重新回到孩子当学生,家长当老师模拟默写时,孩子也会感觉更熟悉放松。

  • 计时挑战赛:有时紧张来自于时间压力。我们可以将默写练习设计成“一分钟拼写挑战”。家长设定计时器,在1分钟内说出尽可能多的学过的单词,让孩子尽快写下。这更像游戏而非考试。每次挑战后统计拼对了多少词,与自己之前的成绩比赛。这种个人挑战的形式,让孩子关注于超越自己,而非害怕出错。随着次数增加,孩子会发现自己进步,从而建立信心。

  • **拼词接力球:**准备一个软球,进行“拼词投球”游戏。玩法是家长先说一个单词并把球抛给孩子,孩子需要说出该单词的第一个字母,然后将球抛回给家长。家长说出第二个字母再抛给孩子,如此往返,一起把单词的字母顺序拼出来。如果中途有人说错了字母,也没关系,重新开始这个单词即可。这种边运动边拼写的练习,把默写变成了合作游戏,身体活动还能舒缓紧张情绪。全家人一起玩更有趣,欢笑中不知不觉就把单词默写练熟了。

  • 错词消灭游戏:针对孩子在默写中总是特别紧张的几个“拦路虎”单词,可以制作“炸掉错词”小游戏。将这些单词分别写在小卡片上。家长和孩子将卡片铺在桌上,好似游戏关卡。家长扮演出题人,说中文让孩子写英文。如果写对了,就“砰”地盖一个小图章(表示炸弹拆除了),如果写错了,先不急着纠正,而是把卡片留在一边,稍后一起研究这个词为什么错、应该怎么记。通过这种游戏化的闯关形式,孩子会有击败难题的成就感,而不会一味紧张害怕遇到它们。

  • 放松训练:在正式默写前,教孩子一些简单放松技巧也很重要。例如深呼吸三次,脑中快速回想一次要默写的单词表,然后告诉自己“我已经准备好了”。家长可以和孩子一起做几秒钟的眼保健操或摇摇手放松手指,让身体放松下来再开始写。还可以准备一张“加油微笑纸条”贴在孩子书桌上,上面写着鼓励的话或画个笑脸,在默写前让孩子看一眼,建立积极心态。心理放松好了,上考场就不容易紧张慌乱。

通过上述这些活动,孩子可以在模拟和游戏中逐步适应默写的形式,把“考”变成“玩”。当真正面对学校默写时,他/她会联想到家里练习时的轻松场景,心态更平和,从而发挥出应有水平。

六、每周复习与测验建议(查漏补缺)

Section titled “六、每周复习与测验建议(查漏补缺)”

要将学过的单词真正掌握,科学的复习和测验机制非常关键。下面是每周循环中复习巩固的建议:

  • 定期小测验:建议每周末或下周开始时,由家长组织一次小测验,内容包括本周的新单词,以及前几周反复出错的旧单词。形式可以多样:既可以是正式的书面默写,也可以是口头拼写或选择题等。在测验中尽量让孩子独立完成,然后家长一起对答案。定期测验就像里程碑一样,检查阶段性学习效果,督促孩子查漏补缺。

  • 错词本与巩固:将每次小测验中拼错的单词记录在错词本上。错词本既可以是一个笔记本,也可以用便利贴贴在墙上“错词墙”。下一周开始时,花10分钟和孩子一起来重点复习这些易错词:分析为什么写错,是发音记错了还是字母顺序混淆了,针对性地运用前面介绍的记忆技巧重新记一遍。例如如果因为粗心丢了字母,就编个口诀提醒自己。如果是某个字母总写反,就刻意多写几遍强化手感。通过这种方式确保没有疏漏:每周把漏洞补上,下次测验争取不再错同样的词。

  • 循环复习(间隔重复):单词记忆需要反复巩固。建议采用“间隔重复”的策略来安排复习频率。例如:本周一学的新词,在周二先快速复习一遍(间隔1天),周五再复习一遍(间隔4天),下周一再次复习(间隔7天)。每次复习时可以让孩子尝试闭眼拼写或者听家长读词写下,看是否还记得。如果遗忘了就重点再记。一些实践表明,经过1天、3天、1周的渐进式巩固,单词会从短期记忆转入长期记忆,不容易再忘记。家长可在日历上帮孩子做一个简单的复习计划表,按间隔标注哪些天要复习过去哪些单词,让复习有计划地进行。

  • 综合应用复习:除了机械地背拼写,也可以通过阅读和造句来复习单词。在每周末,家长可以和孩子一起读一篇包含本周单词的小故事或短文,在语境中巩固词汇。如果没有合适材料,可以让孩子用这周学的单词各说或写一个句子。比如本周学了颜色词,就让孩子描述“我最喜欢的颜色…”。通过听说读写的综合应用,检查孩子是否真正理解了单词意义及用法,而不仅是会拼写。这样的复习使单词活起来,也更有趣。

  • 奖励与成就感:在每周复习和测试结束后,给予孩子一些正向反馈和奖励,强化他的成就感。如果孩子顺利掌握了大部分单词,可以在词汇表旁画一个进度条或贴上小星星,直观展示“本周掌握了XX个单词”。若全部通过,还可以适当奖励如看一集英文动画或周末户外活动等。让孩子觉得付出努力后收获了成果,从而更有动力面对下一周的新单词学习。

通过“学习—复习—测验—反馈”的每周闭环,孩子能及时发现并补救自己尚未掌握的词汇,逐步构建起更加牢固的单词库。查漏补缺的过程也是培养自我监控主动学习习惯的过程。当孩子养成每周自主复习的习惯,日后的英语学习将更加轻松高效。

结语:以上方案注重将科学的记忆方法与孩子的兴趣相结合,循序渐进地提高词汇量和默写能力。从控制每周单词数量、每天均衡训练,到运用图像联想和趣味口诀记单词,再到家长的陪伴鼓励,以及克服默写紧张的小妙招,旨在让孩子在轻松愉快的氛围中学有所获。希望通过此方案,孩子能够逐步提升英语单词拼写水平,建立自信心,真正做到乐学善记,在日后的英语学习道路上打下扎实基础。祝愿孩子在家长的陪伴下快乐地挑战单词王国,每周都有新进步!

Claude Code Subagents 把 AI 当公司开发、产品、设计、运营同事

一分钟看懂:contains-studio/agents 收录了 40+ 经过实战打磨的 AI 子代理(Sub-Agents),按“工程、产品、设计、运营…”等部门分类,只要把整包复制到 Claude Code 的 ~/.claude/agents/ 目录,重启即可调用。描述任务——或直接点名代理——Claude 就会自动分派最合适的“专家”上场,帮你从写代码到做市场,一条龙提速。


创业团队常吐槽:需求多、节奏快、没人手。contains-studio/agents 给出的答案,是把琐碎工作外包给一群“专职 AI 员工”。今天咱们来拆解这个开源项目的玩法,并用 3 个高频代理做演示,看看它能帮你省下多少头发。


  • 代理按部门文件夹归档,工程、产品、设计一目了然。
  • 每个 .md 文件都含 YAML 元数据、工具权限与系统提示,方便二次定制。
  • 只描述需求即可触发;也能在提示里手动 @代理名。
  • 支持 “6 天冲刺” 流程:完成功能→自动叫来 test-writer-fixer 写测试;改 UI→whimsy-injector 自动注入趣味。

项目推荐用 完成时长、用户满意度、缺陷率 等指标跟踪代理表现,持续调优。


Terminal window
git clone https://github.com/contains-studio/agents.git
cp -r agents/* ~/.claude/agents/
# 重启 Claude Code

3 步搞定,重启后所有子代理就自动就位。

调用示例

“写一个记录冥想习惯的 App MVP” → rapid-prototyper “最近 TikTok 爆火的 App 点子有哪些?” → trend-researcher “App 评分突然掉了,原因是什么?” → feedback-synthesizer


  • 定位:极限 6 天做出跑得动的 MVP。
  • 拿手活:选技术栈、脚手架生成、CI 模板、Smoke Test。
  • 实战一刻:10 人团队想抢先发布“小红书风格健身笔记”,它能在 48 小时拉起 React-Native、Supabase 后端与基础测试。
  • 定位:捕捉“下一个爆款”线索。
  • 拿手活:多渠道舆情抓取、数据分面分析、机会评分。
  • 实战一刻:老板问“生成式视频赛道还有窗口吗?” 它会输出 TikTok、Reddit、Product Hunt 信号+竞争格局表,让会议有据可依。
  • 定位:把一星差评汇总成可落地改进项。
  • 拿手活:情绪聚类、痛点归因、优先级打分、功能 Roadmap 建议。
  • 实战一刻:App 更新后差评激增,它五分钟就给出“登录慢→增加本地缓存” 等三条高击中率方案。

  1. 指令要具体:越清晰的上下文,代理越聪明。
  2. 多代理协作:设计 + 工程 + 测试串联,整体收益 > 单点调用。
  3. 用数据衡量:跟踪“任务完成时长”“缺陷率”两大指标,持续调参。

AI 员工已经在门口等活,你准备好让他们“打螺丝”了吗? 你最想把哪项工作甩给代理?评论区聊聊! 🗨️


需要补充更多示例或深挖定制技巧?留言告诉我!

Claude-Code-Remote:用邮件 / Discord / Telegram 远程操控 Claude Code 的终极指南

Claude-Code-Remote 把终端里的 Claude Code 搬上「邮件 / Discord / Telegram」,让你躺在沙发上刷手机也能远程下指令、收进度、续写命令,真正实现 24 × 7 异地协作与长任务托管。


开着 Claude Code 跑单元测试、重构、生成文档,一等就是几十分钟,甚至几个小时。 过去你要守在电脑前盯着 tmux 窗口,现在只需一封邮件就能收到「任务完成」通知,直接回复邮件再下新指令——这就是 Claude-Code-Remote 带来的体验。


  • 任务完成即自动发邮件 / 私聊消息提醒,不怕网络掉线。
  • 在地铁里回一封邮件就能继续驱动 Claude 干活。
  • 通过 settings.jsonHook 机制把通知与命令注入,升级官方 CLI 也不冲突。
  • 仅白名单邮箱 / 用户可下指令;
  • 每条指令映射到独立 tmux Session,互不干扰。
  • 已有社区的 Web UIDiscord Bridge 等扩展,随时接入更多沟通场景。

场景痛点Claude-Code-Remote 解决方案
长时间单元测试 / LLM 自动 Refactor本地等结果浪费时间结果出邮件→回复邮件继续下一步
出差在外临时改 Bug无法 SSH 回公司内网Discord/Telegram 发指令,远端 tmux 即时执行
多地协作 Code Review时区差异大白天在办公室启动 Claude,晚上手机收总结并批量回复优化点

Terminal window
git clone https://github.com/JessyTsui/Claude-Code-Remote.git
cd Claude-Code-Remote && npm install
Terminal window
cp .env.example .env
# 填写 SMTP / IMAP / ALLOWED_SENDERS

Gmail 用户别忘了申请 App Password

~/.claude/settings.json 追加:

"hooks": {
"Stop": [{
"command": "node /path/claude-remote.js notify --type completed"
}],
"SubagentStop": [{
"command": "node /path/claude-remote.js notify --type waiting"
}]
}

然后:

Terminal window
npm run relay:pty # 监听邮箱
tmux new -s project && claude # 正常启动 Claude

完成! 以后 Claude 结束任务就会给你发通知,直接「回复原邮件 → 下一条命令」即可。


  1. 结合 Claude-Code-UI:在手机浏览器可视化查看文件树与历史。
  2. Discord Slash 命令:和团队一起群控 Claude,支持图片上传。
  3. Telegram Bot 自动化:用 /deploy 一键触发 CI/CD。

Claude-Code-Remote 把「等待 → 通知 → 二次指令」三件事拆解,用最通用的邮件/IM 通道把 Claude 彻底解耦出终端,让 AI 代理真正跑在后台,而人类专注高价值决策。 如果你厌倦了守着黑乎乎的 Shell,就把它装上试试吧!


**你觉得这种远程操控方式能帮你省多少时间?**👇 留言区聊聊,你的实战经验可能会成为下一篇案例!

把 Claude Code 搬上手机与网页:Claude Code UI 全面上手

Claude Code UI 是一个开源的 Web/移动端界面,连接本机或远程服务器上的 Claude Code CLI,提供对话、文件与 Git 浏览、内置 Shell、会话管理等能力;默认关闭高风险工具,支持按需启用与权限控制。项目采用 GPL-3.0 许可,持续活跃迭代。

它把终端里的 Claude Code 搬上浏览器与手机,帮你在任何设备上用更顺手的方式管理会话与项目。


  • 摆脱纯命令行的局限:Claude Code 官方以 CLI 为主,功能强但对新手/移动端不够友好;UI 将其结构化到网页上,降低操作门槛。
  • 跨设备轻量远程使用:在 iPad/手机上即可查看项目、切换会话、审阅改动,适合通勤、会议或外出场景。
  • 把常用开发动作集中到一个界面:对话、文件编辑、Git 操作、终端与会话历史集中呈现,减少上下文切换。

  1. 桌面 & 移动自适应 响应式布局,桌面/平板/手机均可用,可添加主屏快捷方式(PWA 体验)。

  2. 对话式界面 + 实时流式输出 内置聊天面板与会话管理,支持恢复历史会话、查看时间线与元数据。

  3. 集成 Shell 终端 在 UI 内直接接入 Claude Code CLI 的命令行能力(如执行任务、查看日志)。

  4. 文件浏览与在线编辑 左侧文件树、语法高亮、读写保存、创建/重命名/删除文件与目录。

  5. Git 浏览与基础操作 在界面中查看、暂存、提交与切换分支;近期版本还加入了 push/pull/fetch

  6. 项目与会话自动发现~/.claude/projects/ 自动收集项目;会话自动持久化并可导出。

  7. 安全默认值 & 权限/工具开关 默认禁用所有工具,在设置里按需逐项启用;支持与 Anthropic 的 Permission Modes 对齐(Plan mode 更新中引入)。

  8. 认证与多用户准备 1.1.4 起引入登录/注册流程与基于 SQLite 的鉴权与受保护路由。

  9. 持续迭代 截至 2025‑07‑13 的 v1.5.0 支持在设置中添加 MCP 服务器;此前还有版本管理提示、Vite 7 升级等。

说明:官网安装页写的是 Node.js 16+,而仓库 README 要求 Node.js 20+;实际以仓库 README 为准,建议使用 Node.js 20+


  • 移动端快速处理:通勤路上用手机查看 Claude 的执行进度、补充提示词、微调文件。
  • 远程项目巡检:在浏览器上直连放在云主机或办公室电脑里的 Claude Code,查看日志、提交小修。
  • 代码审阅与教学演示:通过 UI 展示 Claude 的推理过程、变更与 Git 历史,降低团队沟通成本。
  • 与其他生态搭配:例如你已在用 Claude Code CLI 或 SDK/参考文档,UI 让「看得见、点得到」。

前置:确保你已安装并可使用 Claude Code CLI(Anthropic 官方)。

  1. 安装 Claude Code CLI

    Terminal window
    npm install -g @anthropic-ai/claude-code
    # 参考官方文档完成鉴权与配置
  2. 准备运行环境(建议 Node.js 20+) 安装 Node.js ≥20,克隆仓库并安装依赖:

    Terminal window
    git clone https://github.com/siteboon/claudecodeui.git
    cd claudecodeui && npm install
  3. 配置 .env

    Terminal window
    cp .env.example .env
    # 按需设置端口、主机、反向代理/HTTPS 等
  4. 启动服务并访问

    Terminal window
    npm run dev
    # 浏览器访问 http://localhost:你设置的端口
  5. 首次使用建议

    • 在左侧项目列表中,确认 UI 已自动发现 ~/.claude/projects/
    • 打开右上角齿轮,只启用必需的工具,遵循最小权限原则。
    • 需要 Git 同步可在 Git 面板进行查看/暂存/提交,必要时使用 push/pull/fetch。
  6. 移动端安装为「应用」 在手机浏览器“添加到主屏幕”,以 PWA 方式获得更接近 App 的体验。


  • 默认即安全:工具默认关闭,逐项开启;遵循 Anthropic 的 Permission Modes
  • 认证与访问控制:启用登录/注册(v1.1.4 起),限制公网访问,优先内网/SSH 隧道/反代。
  • 版本更新:UI 带有更新检查与提示,按提示 git pull && npm install 升级。
  • 环境要求一致:以仓库 README 的 Node.js 20+ 为准,避免官网页面旧信息导致的不兼容。

如果你已经在用 Claude Code CLI,Claude Code UI 能显著降低跨设备管理与协作的摩擦.

羊毛党噩耗:Claude Code 发布新按周限额政策,打击账号共享和转售

摘要: Anthropic 宣布 8 月 28 日起,将为 Claude Code 订阅用户叠加「按周限额」,并单独对顶配 Opus 4 模型设周上限。官方直言:有人把 Claude 当“24×7 编码矿机”,甚至共享账号、倒卖配额。新规旨在“仅影响不到 5 % 的用户”,却引爆开发者社区——不少“羊毛党”感叹薅不到 GPU 算力了。


还记得之前靠“共享账号 + 自动脚本”无限刷 Claude Code 的日子吗?好日子到头了。 Anthropic 给订阅户发邮件,宣布一套更严的周限额体系,理由只有一句话:公平 + 稳定

“部分高级用户把 Claude 挂后台 24 小时跑,甚至转卖访问权限,拖慢了所有人。”——官方邮件


变动旧规则新规则(8 月 28 日起)
短时限额每 5 小时刷新(不变)保持不变
整体周限额每 7 天刷新
Opus 4 周限额单独周上限
  • 预计影响人群:< 5 % 的高强度用户。
  • Max 5× 档位:每周约 140–280 小时 Sonnet 4、15–35 小时 Opus 4。
  • 超额方案:可按 API 标准费率“续命”。

社区已出现“月卡代刷”“多人拼团”等灰色服务,严重违反 TOS。

Claude Code 用户量激增,官方状态页一个月内 7 次故障。

TechCrunch 指出,类似 Cursor、Replit 6 月已被迫改价;Anthropic此举是“补课”。


  • 基本无感:日常提问、改 Bug、生成脚本,周配额够用。
  • 长时间 Agent、大型单仓库 refactor、并行多实例——触顶概率高。
  • 备用方案:提前拆分任务,或切换本地 LLM/其他云模型兜底。

玩法旧收益新风险
拼团共享低成本薅 GPU周限额一来,人多更易触顶
倒卖算力高买低卖差价账号易被风控,信誉归零
24×7 Agent长时间刷积分/排行榜周限额锁死,收益骤降

VentureBeat 揭露:有用户在 $200 套餐跑出“数万美元”内核时长。

一句话:羊毛党不再有利可图。


  1. 监控用量:自建计量脚本,避免“周中锁号”。
  2. 优化提示:压缩上下文,采用流式链式思考,减少无效 token。
  3. 多模组合:常规任务用 Sonnet 4,高复杂度再启 Opus 4。
  4. 私有化备份:部署轻量模型(如 DeepSeek Coder、Phi3 mini)在本地应急。

  • 定价趋严:OpenAI 曾在 6 月调降 GPT-4 mini 限额;BigCode 平台也陆续设周封顶。
  • 资源竞赛:AI 公司疯狂追加数据中心 CAPEX,以平衡日益膨胀的推理成本。

Anthropic 此举,表面针对“羊毛党”,本质是在算力稀缺时代做一次资源再分配:让 95 % 正常用户享受稳定体验,让超高频玩家为占用付费。你会因此降低对 Claude Code 的依赖吗?欢迎在评论区聊聊你的看法!

互动

  • 你一周大概用 Claude 多久?
  • 如果触顶,你会转向哪款工具?

Claude Code 账号共享利器:Claude Relay Service 部署指南

介绍如何通过 claude-relay-service 实现团队共享 Claude 账号,并重点展示 docker-compose 的部署方法

当你的团队想一起使用 Anthropic 的 Claude AI,却苦于账号无法多人共享、或因地区限制而无法直接访问Claude时,该怎么办?小李和小王就遇到了这样的难题:他们合伙开通了价值不菲的 Claude 高级账号,但如何安全高效地让大家共同使用却让人犯愁。更糟的是,市面上一些第三方Claude镜像服务常常不稳定、甚至存在隐私风险。所幸,开源项目 Claude Relay Service 横空出世,让团队自建Claude中转服务成为可能!它支持将多人的Claude账号集中在一处,由团队成员共同使用,并通过OpenAI兼容接口方便地接入各种应用。本文将深入介绍这个项目的核心特点和使用方法,带你一步步搭建属于自己的Claude中转站,实现团队高效共享Claude账号的愿望。相信阅读完本文,你会发现:原来和小伙伴们拼车Claude,就像合租一台“AI超跑”,既省钱又放心!🚗💨

Claude Relay Service 能够充当你自己部署的Claude “中转服务器”,它像一个管家,替你管理多个Claude账户,并提供统一的API接口供团队调用。以下是它的几项核心能力:

  • 团队账号池 & 多账户轮询:支持添加多个Claude账号组成账号池,服务会自动轮换使用它们处理请求。这意味着如果一个账号达到使用上限或出现问题,系统会智能切换到下一个账号,保证服务不断档。团队合租Claude账号时,每个人的请求将被均匀分配到不同账号上处理,大幅降低了单账号被封禁的风险。

  • OpenAI API接口兼容:Claude Relay Service 同时提供Claude原生接口OpenAI兼容接口。也就是说,你可以用OpenAI API的格式来调用Claude!例如,将第三方应用的API端点指向 http://<你的服务器>:3000/openai/claude/v1/,就能像调用OpenAI一样使用Claude模型 。这一特性让已有的各种AI工具无缝对接Claude成为可能,再也不用费力修改代码适配新接口。

  • 自定义API密钥:为了方便团队内部管理,管理员可以为每个用户生成独立的API Key。每位成员用各自的Key访问Claude Relay Service,中转服务会统计每个Key用了多少请求和Token。管理员可以设置访问权限和速率限制,例如每分钟请求次数上限、每月最大Token用量,甚至限定哪些模型可用等。通过这种方式,团队共享Claude账号的同时也能做到各用各的、不抢道,清晰掌握每个人的使用情况。

  • OAuth快捷添加账号:添加Claude账号进入账号池非常简单。Claude Relay Service 集成了Anthropic的OAuth授权流程:管理员在Web界面点击“添加账户”,生成授权链接,然后登录Claude账号授权即可将该账号接入服务。整个过程无需手动输入密码,安全又便捷。需要注意的是,如果服务器在国内,完成OAuth授权可能需要科学上网配合。有了OAuth集成功能,哪怕团队里不断有新人加入或更换Claude账号,管理员都能几分钟内完成配置,无缝衔接。

以上这些功能组合在一起,就打造出了一个安全高效、灵活可控的Claude共享平台。对于无法直接访问Claude官方服务、又希望和朋友拼车Claude订阅的小团队而言,这无疑是个福音!Claude Relay Service让你们远离第三方镜像的不稳定,自己掌控数据和成本。正如官方README所说:数据安全、性能可控、成本透明 – 自建服务的好处一目了然。

Claude Relay Service 提供了多种部署方式,其中Docker Compose 部署无疑是最简单高效的选择之一。下面我们以Docker Compose为例,从零开始搭建你的Claude中转服务。

1. 环境准备:确保服务器已安装好 Docker 和 docker-compose 工具。由于使用Docker容器,基本不挑操作系统,只要能跑Docker即可。官方推荐使用国外云服务器(美国节点)以直接访问Anthropic的Claude服务。部署前,你需要注册至少一个Claude账号并订阅相应套餐(团队共享通常选择Claude Pro或Max套餐,大家平摊费用)。此外,准备两个安全密钥:JWT_SECRETENCRYPTION_KEY,分别用于签发JWT和加密敏感数据,必须是随机字符串且加足长度(32字符以上)。

2. 获取项目镜像:项目提供了预构建的Docker镜像,直接拉取即可使用:

Terminal window
docker pull weishaw/claude-relay-service:latest

镜像支持 AMD64 和 ARM64 架构,拉取完成后,我们就可以通过Docker Compose来运行它。

3. 编写配置:在部署目录中新建一个 .env 文件,写入我们准备好的环境变量:

Terminal window
# .env 文件内容示例
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:预设管理员账号(不设则随机生成)
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

以上,JWT_SECRETENCRYPTION_KEY是必填项,请务必替换为你自己的随机密钥。ADMIN_USERNAMEADMIN_PASSWORD可选填;若不设置,系统首次启动会自动生成默认的管理员账户和密码并存储在挂载的数据卷中供查阅。

接着,创建 docker-compose.yml 配置文件,内容如下:

version: '3.8'
services:
claude-relay:
image: weishaw/claude-relay-service:latest
container_name: claude-relay-service
restart: unless-stopped
ports:
- "3000:3000"
environment:
- JWT_SECRET=${JWT_SECRET}
- ENCRYPTION_KEY=${ENCRYPTION_KEY}
- REDIS_HOST=redis
- ADMIN_USERNAME=${ADMIN_USERNAME:-}
- ADMIN_PASSWORD=${ADMIN_PASSWORD:-}
volumes:
- ./logs:/app/logs
- ./data:/app/data
depends_on:
- redis
redis:
image: redis:7-alpine
container_name: claude-relay-redis
restart: unless-stopped
volumes:
- redis_data:/data
volumes:
redis_data:

上面的Compose文件定义了两个服务:claude-relayredis。让我们逐项解释每个字段的含义:

  • 镜像与容器claude-relay服务使用了我们拉取的官方镜像 weishaw/claude-relay-service:latest,并命名容器为claude-relay-service,方便识别。redis服务使用官方的 redis:7-alpine 轻量镜像作为后端数据库。两个服务均设置了restart: unless-stopped,确保容器异常退出时能自动重启,保证高可用。

  • 网络端口ports 将容器内部的3000端口映射到主机的3000端口,即服务启动后可通过 http://<服务器IP>:3000 访问Claude Relay Service的接口和Web管理界面。

  • 环境变量environment 列出了Claude Relay Service所需的环境变量。其中 ${JWT_SECRET}${ENCRYPTION_KEY} 会从我们刚才的 .env 文件中读取对应的值。REDIS_HOST=redis 指定服务应连接名为redis的容器作为数据库。ADMIN_USERNAMEADMIN_PASSWORD使用了${VAR:-}语法,表示如果.env中提供了这些变量就用提供的值,否则留空让系统自动创建管理员账号。通过环境变量集中配置,所有敏感信息不硬编码在镜像内,修改配置也非常方便。

  • 数据卷挂载:Claude Relay Service会将日志和数据分别写入容器内的/app/logs/app/data目录。我们通过volumes将宿主机的./logs./data目录挂载到容器对应路径,实现日志和数据持久化。这样即使容器重启或升级,之前的对话内容、账号配置等数据也不会丢失。

  • 服务依赖depends_on: - redis 表示Claude Relay服务在启动时需要等待Redis服务就绪。这确保了应用在启动时能成功连接到数据库。不用担心启动顺序的问题。

  • 命名卷:底部的volumes: redis_data:定义了一个持久化卷用于存储Redis的数据文件。Redis容器将其挂载到/data路径下。如此一来,Redis的数据也能在容器之间共享/持久。

配置文件准备就绪后,可以看到它已经涵盖了管理员账号初始化、数据持久化、内置Redis、健康重启等方方面面。Docker Compose 帮我们把这些部署杂事一网打尽,省心又省力。

4. 启动服务:在包含上述文件的目录下,执行:

Terminal window
docker-compose up -d

Docker会拉取Redis镜像并启动两个容器。第一次启动时,Claude Relay Service会自动初始化管理员账号和密码。如果之前我们没有在.env中预设管理员凭据,可以通过查看日志或文件获取默认账号:

Terminal window
docker logs claude-relay-service # 从容器日志中查找初始管理员账号
# 或查看挂载的数据文件
cat ./data/init.json

日志或文件中会显示管理员用户名(一般默认为cr_admin)和随机生成的密码。拿到管理员账号后,我们在浏览器访问 http://<服务器IP>:3000/web 打开Web管理界面。输入管理员账户登录,即可开始配置我们的Claude Relay Service啦!

5. 添加Claude账号:登陆管理后台后,首先要将Claude官方账号接入系统。在“Claude账户”标签页点击“添加账户”,然后点击“生成授权链接”。系统会跳转到Anthropic的官网OAuth页面,提示你登录并授权。使用需要共享的Claude账号完成授权后,会返回一个授权码,将其粘贴回Claude Relay Service的添加账户页面,即可成功绑定账号。整个过程类似于用第三方应用登录Google,安全方便。小提示:如果服务器在国内,执行这步可能需要VPN配合,否则无法打开Anthropic授权页面。

6. 分发API Key:账号池准备就绪后,就可以为团队成员创建各自的API Key了。在管理后台进入“API Keys”页签,点击“创建新Key”,为其命名(例如“张三的Key”),然后生成。你也可以在创建时设置该Key的权限和配额,如每分钟最大请求数、并发数、可用模型、绑定客户端等。保存后系统会生成一串随机API密钥。今后团队成员只需使用这个密钥调用Claude Relay Service提供的API接口,就会由中转服务代他们向Claude提问了。

完成以上步骤后,一个功能完备的Claude团队共享中转服务就部署成功!整个流程下来是不是相当简洁?借助Docker Compose,我们几乎不用手动配置复杂环境,一条命令拉起所有服务。官方也贴心地在Compose模板中考虑到了自动初始化和数据持久化,开箱即用。

要让Claude Relay Service在团队协作中发挥最大效用,这里有一些经验之谈与大家分享:

  • 合理规划账号池:尽量使用多几个Claude账号来构建账号池,并确保它们套餐相同(例如都订阅Claude Pro/Max),这样轮询时不会因为单个账号性能不足而拖后腿。账号数量可以根据团队规模和请求频率调整,人越多账号越多更稳定。不用担心账号闲置,正所谓“多个Claude账号走镖,不怕封号扰”——哪怕个别账号被风控暂停,后备账号也能顶上,服务不中断。

  • 充分利用使用统计:管理员应定期查看Claude Relay后台的使用统计功能,了解每个API Key的请求量和Token消耗。这有助于团队内部透明化账目:大家平摊Claude订阅费时,心里都有本“明白账”。如果发现某段时间请求量异常增高,可以及时沟通或调整速率限制,避免某个人“独占”资源影响他人。

  • 设置访问控制:Claude Relay Service支持为每个API Key设置丰富的使用限制。善用这些功能,例如限制单用户每分钟请求不超过N次,或者仅允许特定客户端/应用使用,能够防止误用滥用。特别是在开放给更多人使用或集成到第三方应用时,务必配置好速率限制和并发控制,既保护后端Claude账号不被过载,也防止团队内部因资源抢占产生矛盾。

  • 关注网络和延迟:建议将服务部署在能快速访问Claude服务器的地区(如北美地区)。如果你的团队主要在国内使用,可以考虑选择对国内用户友好的中转线路。例如部署在美国但走优化过的回国网络,减少API调用过程中的延迟。根据实践,部分国内云厂商的海外机器可能会被Claude的Cloudflare防火墙拦截,要多加留意官方频道公告或社区反馈。

  • 保持更新:该项目十分活跃,功能在不断改进(例如近期新增了Claude-1.2模型支持等等)。建议定期关注项目的GitHub主页或Telegram公告频道。Docker用户可以通过定期docker pull获取最新镜像,然后重启服务升级。保持版本最新,可以享受更稳定的性能和最新的功能特性。

最后提醒一句:使用Claude Relay Service相当于非官方方式调用Claude,请务必遵守Anthropic的服务条款,避免滥用造成账号风险。自建服务给了我们更大自由,也意味着需要自行对安全合规负责。在团队内部制定好使用规范,才能长长久久地“开开心心用Claude”~

通过 Claude Relay Service,我们再也不用为团队共享Claude账号而绞尽脑汁了。无论你是因为地区限制无法直连Claude,还是想和小伙伴拼车昂贵的Claude Max套餐,这个开源项目都提供了一个灵活可靠、安全私有的解决方案。我们详细讲解了它的核心功能:多账户池、OpenAI接口兼容、自定义API密钥、OAuth添加账户等,让你清楚它如何满足团队协作需求。同时,我们一步步演示了Docker Compose部署,从配置环境变量到启动服务,相信即使不是DevOps高手的读者也能跟随操作,快速搭建起自己的Claude中转站。

可以想见,有了Claude Relay Service,加班写代码时再也不怕Claude账号额度见底,同事们也不必各自开账户重复花钱。大家共享一个“Claude大水池”,各取所需又明明白白,真正做到省钱又省心!🤝

每月 200 美金顶级 AI 会员到底值不值?:ChatGPT Pro、Gemini Ultra、Claude Max、SuperGrok Heavy

过去 12 个月,四大头部模型相继推出 $200 ~ $300 美金/ 月 级别的“钛金会员”。有人惊呼“AI 贵得离谱”,也有人把它们当成生产力神器。今天,我们从 价格、独占模型、深度研究、媒体生成、编程体验、附加福利 六个维度,帮你拆透这场高价较量。


套餐上市时间月费年付试用/学生优惠
ChatGPT Pro2024-12-05$200××
Gemini Ultra2025-05-20$250,首三月 $125××
Claude Max2025-04-10$200(20×) / $100(5×)××
SuperGrok Heavy2025-07-10$300$3 000×

结论: 价格全部站上 200 美元,Grok 更是冲到 300 美元;联名“没优惠”俱乐部,一点也不接地气。


  • ChatGPT Pro

    • 独占 o3-pro 模型,不限量调用(API $80/MT)
    • 每月 125 次 Deep Research + 125 次轻量版,是 Plus 的 10 倍
  • Gemini Ultra

    • 独享 2.5-pro-Deep Think(即将上线)
    • Deep Research 基于 2.5 Pro,每月积分换算约 125 次
  • Claude Max

    • 无独占模型,但可 20× 配额使用 Claude Opus 4 / Sonnet 4
    • Advanced Research 调用 Claude 4,次数未公开
  • SuperGrok Heavy

    • 独占 Grok-4-Heavy,每小时 20 次,112k 上下文,推理数学突出
    • 暂无 Deep Research,但大窗口让它天然适合 Agent 场景

  • ChatGPT Pro:o3 、o4-mini-high、GPT-4.5 全量开放,上下文 128k(API 200k)
  • Gemini Ultra:2.5 Pro 无限;输出 token 官方未披露,但 Flow / Whisk 可用
  • Claude Max:Pro 限量的 5~20 倍,但并非真正无限;大任务更安心
  • SuperGrok Heavy:Grok-4 每 2 小时 40 次,窗口 130k token

功能ChatGPT ProGemini UltraClaude MaxSuperGrok Heavy
语音高级语音不限量与 $20 会员相同,无明显升级
画图无水印、4 张队列
视频Sora 1080p 10 s 无限

  • Codex CLI:Pro 送 $50 API 额度;Plus 仅 $5
  • Operator 远程 VM Agent:目前仅向 Pro 用户开放,可自动浏览器执行任务
  • Gemini Ultra:打包 YouTube Premium($14)+ NotebookLM + 30 TB Drive
  • Claude 与 Grok 暂无额外礼包。

  1. 成本真高:模型越大,推理成本指数级上升;单用户 24 小时也烧不了 10 倍 GPU,却一定要预留峰值带宽。
  2. 品牌光环:高价=高端标签,给专业用户和投资人信心。
  3. 防止竞争:顶级模型 API 挂天价,逼你买包月,避免“别人拿我 API 来跟我打价格战”。

  • 只写代码?Claude MaxChatGPT Pro,一个上下文长、一个独占 o3。
  • 重 AI 视频:Gemini Ultra ⟹ Veo 3,目前行业天花板。
  • 需要最长推理链:Grok Heavy 112k token 很香,但生态还在补课。
  • 预算有限:普通 $20 层已能覆盖 80% 场景,盲冲高端前,先问自己 ROI 能不能挣回会员费用。

顶级会员不是面向大众,而是服务“时间比钱更贵”的重度用户。 你会为哪家买单?留言聊聊你的选择吧!

我的代码会不会被 Trae、Cursor、Copilot 拿来训练模型


昨天 V2EX 上一条帖子火了:作者发现 Trae IDE 会持续上传代码数据,连在 Discord 的吐槽都被「禁言」。一石激起千层浪——开发者最关心的问题只有一个: 我的代码到底安不安全?


工具上传到云端是否长期存储是否拿去训练模型能否一键关闭
Trae (国内 / 海外)会,构建索引或聊天时临时上传明文代码处理后即删,仅留嵌入,官方声明“除计算嵌入外不会训练模型”暂无隐私开关
Cursor会,补全与索引都会上传默认可能留存;开 Privacy Mode 后零留存默认可用于改进模型;隐私模式下 不训练有隐私模式
GitHub Copilot会,经 Azure 处理不保存明文,仅做即时推理默认 不训练;个人版可自愿 opt-in训练开关可手动控制

一句话结论: 三家都要“上传”,Copilot 与 Trae官方都声称训练代码;Cursor 要手动开隐私模式才等同“0 训练”。


🟢 Trae:官方承诺「只算嵌入」

Section titled “🟢 Trae:官方承诺「只算嵌入」”
  • 隐私条款明确:“We do not use Your Content as training data for model training.”
  • 仍会把代码片段送上云端做向量索引,明文删除,仅保留嵌入。
  • 痛点没有像 Cursor 那样的「隐私模式」,用户无法关掉上传。

🔵 Cursor:有“隐私模式”才真私密

Section titled “🔵 Cursor:有“隐私模式”才真私密”
  • 默认会收集 Telemetry,用于改进模型。
  • 开启 Privacy Mode → 不存储、不训练,但请求仍经第三方 LLM(OpenAI / Anthropic)处理。
  • 隐私模式需要手动打开,新用户别忘了。

🟣 GitHub Copilot:企业友好,个人可选

Section titled “🟣 GitHub Copilot:企业友好,个人可选”
  • Copilot Business / Enterprise:代码绝不用于模型训练。
  • 个人订阅:默认也不训练,界面里可自愿开启「改进 Copilot」开关。
  • 仍要上传到 Azure,完全离线方案暂无。

场景建议
高度机密(金融、核心算法)别联网。使用本地 LLM 或走私有云;关闭任何自动补全。
纯开源 / 公开项目选 Copilot、Cursor,影响最小。Trae 也可,但需接受上传。
中间地带(部分闭源 + 需效率)开 Cursor 隐私模式或 Copilot;Trae 目前无关闭开关,谨慎评估。

  • 把隐私模式做成默认开启,而不是让用户去翻设置。
  • 出透明度报告:上传了什么?保存多久?是否真删?
  • 细粒度开关:索引 OK、训练 NO——让用户自己选。

AI 写码再香,也别忘了:

代码是生产力,也是风险点。

每隔一段时间,回顾一次工具的隐私政策,别让更新条款悄悄改变你的安全边界。


💬 你所在团队现在用哪款 AI IDE?隐私顾虑解决了吗?评论区聊聊!

与其担心工资缩水和失业裁员:互联网打工人不如持有英伟达对冲 AI 时代的风险

互联网时代“信息流动”的边际成本≈0;AI 时代“信息生成”的边际成本居高不下并且随用量线性增长。资源从「人」转向「算力+电力」,企业从轻资产的第三产业加速“第二产业化”。作为互联网打工人,一手升级认知与技能,一手用资产配置(如英伟达)对冲自身在价值链里的稀释风险。


  1. 本质变化:PC/移动互联网 = 低边际成本的“信息分发”;AI = 高边际成本的“信息生成”。
  2. 公司画像:OPEX→CAPEX、人才→GPU、电力、数据中心,互联网公司“工业化”。
  3. 个人策略职业从“写功能”转向“管工程与算力经济学”;资产用“AI上游龙头+分散ETF”对冲自身现金流风险(非投资建议)。

2025年7月2日据《连线》(WIRED)杂志最新获悉,马克·扎克伯格在为其新成立的Meta超级智能实验室招兵买马之际,向顶尖研究人才开出了高达3亿美元(约合人民币21.8亿元)的四年期薪酬方案,其中首年总薪酬超过1亿美元(约合人民币7.27亿元)。

2025年7月11日英伟达成为全球首家市值突破4万亿美元的上市公司。英伟达花了30年时间建立了一个价值1万亿美元的公司,又用了两年时间将自己变成一个价值4万亿美元的公司。

2025年07月24日 Google 母公司 Alphabet 周三表示,它将在 2025 年花费 850 亿美元的资本支出,高于年初表示的 750 亿美元。

1. PC/移动互联网 vs. AI 时代的三处本质不同

Section titled “1. PC/移动互联网 vs. AI 时代的三处本质不同”

① 信息方式:从“信息流动”到“信息生成”

Section titled “① 信息方式:从“信息流动”到“信息生成””
  • 过去:互联网把既有内容更快、更广、更便宜地送达用户(搜索、社交、视频)。
  • 现在:AI 在用户每次请求时重新生成文本、图像、代码、语音等结果,每次生成都要消耗算力与电力

② 边际成本:从接近 0 到持续偏高

Section titled “② 边际成本:从接近 0 到持续偏高”
  • 互联网:一旦网络与 CDN 等基础设施建好,分发的边际成本接近 0
  • AI:训练不是“一次性”,要年度迭代+持续增大投入;而推理更是按调用付费用量越大成本越高。即使硬件迭代带来“同价更强”,更强模型也会把省下来的成本吃回去(体验换成本)。

③ 使用规模:从“人口/设备上限”到“无上限的自动化”

Section titled “③ 使用规模:从“人口/设备上限”到“无上限的自动化””
  • 互联网:活跃用户数受设备与人口天花板约束。
  • AI代理/自动化/自主化把“人次”上限拆掉——机器对机器的调用可以 7×24×N 倍放大,需求侧具备指数级增长的可能。

① 资本开支(CAPEX)抬升、且“年年续费”

Section titled “① 资本开支(CAPEX)抬升、且“年年续费””
  • 训练:大模型基建不是一次性,硬件折旧周期短,2~3 年即换代
  • 推理:单位调用就产生成本,营收随用量涨,算力账单也同步涨
  • 财务侧:从强调 OPEX(研发工资)转向强调 CAPEX(GPU、数据中心、电力)

② 稀缺资源逆转:从“工程师时间”到“GPU + 电力 + 机房”

Section titled “② 稀缺资源逆转:从“工程师时间”到“GPU + 电力 + 机房””
  • 互联网时代护城河是网络效应近零分发成本
  • 现在的护城河更多来自算力规模、供电容量、选址与冷却、集群调度与运营经验

③ 产业属性切换:第三产业 → 第二产业化

Section titled “③ 产业属性切换:第三产业 → 第二产业化”
  • 互联网公司越来越像传统工业企业:重资产、长周期、强运维、工程化
  • 人才结构演进:从大规模 SDE 软件开发工程师 → Pre-training / Foundation Model 等“算力管理人”岗位。

  • 供电容量电网接入是硬约束,数据中心在站址、电价、冷却上的差异决定单位算力成本。
  • 结果:算力扩张不是纯粹“砸钱就行”,而是“工程+供应链+电力”的系统性能力竞赛。

② 生成过剩:供给侧极强,需求侧相对滞后

Section titled “② 生成过剩:供给侧极强,需求侧相对滞后”
  • AI 产能指数级提升,人类注意力与购买力不匹配,容易出现阶段性“泡沫”。
  • 出路:让 AI 自己成为“消费者”——自动化代理完成检索、下单、联动流程,把供给接到真实业务闭环上。

③ 打工人现实:高福利时代收缩

Section titled “③ 打工人现实:高福利时代收缩”
  • 资源从“人”转向“算力”,SDE 的边际议价能力被稀释
  • 心法:与 AI 友好、礼貌、高效协作,升级为“工程的管理者”(管需求、管质量、管数据、管成本、管风险)。

AI 的浪潮不会因为我们的恐惧而停止。

与其担心薪资缩水,不如:

提升“调度 AI”而非“写业务代码” 的能力;

在资产配置里加入 NVDA 等 AI 科技龙头,用股票对冲职业风险;

写在最后:你会把多少工资换成英伟达?为什么? 留言区等你来聊。

Claude Code 的「思考档位」:think, think hard, think harder 和 ultrathink

think 用得好,是助你飞跃瓶颈的秘密武器;用得不好,Claude 就跟“没带脑子”一样干活。


你让 Claude 帮你分析个问题,结果它三句话就甩了个答案给你。

看起来“有模有样”,但一落地就出锅,漏洞百出。

很多人以为是 Claude 不行,其实真相是:你没有让它「好好思考」!


Claude 的隐藏技能:思考档位调节器

Section titled “Claude 的隐藏技能:思考档位调节器”

Claude Code 其实内置了一个「思考加速器」工具(叫 Think Tool),只不过你得自己触发。

档位关键词思考 Token 上限思考深度
NONE不加任何关键词0 Tokens快速执行,几乎不思考
BASICthink / 想4K Tokens初级思考,快速粗略规划
MIDDLEthink hard / 好好想10K Tokens中度思考,适合复杂任务
HIGHESTultrathink / 仔细思考32K Tokens最深层思考,适合攻坚战

这不是玄学,而是写在 Claude Code 工程代码里的真实设定

加了关键词,它就真会多想一会儿!


别担心 Claude 看不懂中文,它的触发逻辑也支持我们母语:

  • HIGHEST(32K):仔细思考、深思、多想一会
  • MIDDLE(10K):好好想、多想想
  • BASIC(4K):思考、想

比如你说「这个问题你仔细思考后再给我计划」——Claude 马上切换到最高档,分配最多思考时间!


当然可以,下面是每种思考档位的典型使用场景示例,简洁清晰,方便直接套用 👇


🧠 ultrathink 示例:拆分复杂产品功能

Section titled “🧠 ultrathink 示例:拆分复杂产品功能”

Prompt: 我想开发一个“智能日报助手”,可以自动从 Slack、Notion、GitHub 汇总今天的重点事件,帮我生成日报草稿。这个问题你先**仔细思考(ultrathink)**一下,输出一份模块划分、数据流和API接口设计。

📌 适用场景:多系统集成、需求模糊、需深度思考架构


🧠 think hard 示例:评估多个技术方案

Section titled “🧠 think hard 示例:评估多个技术方案”

Prompt: 我想为一个多人协作文档应用选择数据库方案,你**好好想(think hard)**一下,是选 PostgreSQL + Redis,还是 MongoDB + Kafka,输出比较分析并给出推荐理由。

📌 适用场景:多个路线可选、需要对比分析


🧠 think 示例:小任务做一下逻辑规划

Section titled “🧠 think 示例:小任务做一下逻辑规划”

Prompt: 我准备写一个脚本,把一个 Markdown 文件里的图片链接全部下载下来并重命名。你先**想一想(think)**该怎么做,用 Python 哪些库比较合适,再给我写代码。

📌 适用场景:任务不复杂,先简单过一遍思路


Prompt: 我已经写好了这个 AI 摘要工具的使用说明,请你把下面这段文字格式优化为 README.md 文件,直接输出结果,不需要多想。

📌 适用场景:需求清晰,只需要执行,无需思考计划


🚀建议用法套路:「Explore, Plan, Code, Commit」

Section titled “🚀建议用法套路:「Explore, Plan, Code, Commit」”

Claude Code 官方推荐了一个 4 步法工作流:

  1. Explore:先让 Claude 读文件,但不写代码
  2. Plan:用 ultrathink 制定详细计划(核心)
  3. Code:基于计划写代码,并自检合理性
  4. Commit:生成 Pull Request 和 changelog

📌 重点来了#2 Plan 步骤一定要加关键词触发「思考档位」,否则很可能跳过深度思考直接开始干活!


🧠不是 Claude 不聪明,而是你没让它动脑

Section titled “🧠不是 Claude 不聪明,而是你没让它动脑”

Claude 的能力很强,但如果你不给它「思考空间」,它就只能草率应付。

用好 think、think hard、think harder、ultrathink,不但能提升输出质量,还能让复杂问题一步到位解决。

你觉得这个设计聪明吗? 你有没有踩过“Claude没想清楚就开干”的坑? 欢迎在评论区分享你的经验👇

Trae 集成 OpenAI o3 模型:思考慢一点,但更设计聪明

**一句话总结:** Trae Agent 把 OpenAI 最新的 o3 Beta 模型塞进了下拉菜单,给了我们更强的跨模态推理—but 思考时间更长、排队更频繁;想用它写代码、读图要多一点耐心,也要学会场景取舍。


  • 视觉链式思考:o3 能在内部“看图想事”,一步步裁剪、放大图片来推理,和纯文本 LLM 拉开代差。
  • 顶级推理:在 Codeforces、SWE-bench 等榜单上刷新纪录,特别适合多文件代码改造、数学证明。
  • 代价与代价:更强 ≈ 更慢——o3 设计成“先长思考后作答”,响应比 Claude Sonnet 4 慢几倍。

Trae 国际版更新后,模型列表多了 “o3 Beta”,点选即用,无需额外 API Key。

复制粘贴 UI 草图或架构图就能让 o3 输出组件代码或流程解释。

  • :o3 的长链式思考让响应延迟拉长;短 prompt 建议仍用 Claude Sonnet 4。

  • :复杂依赖梳理一步到位,后期返工少。
  • 省心:图片->代码、PDF->注释一步完成,省去上下文兜底。

Trae + o3 Beta 就像多了一位深度思考型拍档:慢热,但一旦开动,设计方案更周全。 你会在哪些场景切到 o3? 欢迎评论区聊聊!

Vibe Coding 提速还是拖累?19% 的“慢下来”启示

今年AI Vibe Coding 编程工具在开发圈掀起了一阵热潮。很多开发者(包括我自己)都以为有了 AI 智能助手加持,写代码的效率会大幅提升。然而最新研究却给我们泼了一盆冷水:使用 AI 工具反而让开发变慢了近 19%!这项由 METR 发布的研究针对经验丰富的开源开发者进行对照实验,结果令人出乎意料。参与者原以为 AI 能让完成任务的时间缩短 24%,可实际却慢了将近五分之一。更有意思的是,即使亲身经历了变慢,不少程序员仍坚信 AI “让我更快”——一种“心理加速”错觉。

作为一名互联网电商后台开发,我对这个结果其实有些共鸣。回想自己引入 AI 助手写代码的经历,确实有不少坑:有时等 AI 输出代码把我急得挠头,有时为了配合 AI 不得不中断自己的思路。下面我结合实际开发中的案例,聊聊为什么 AI 编程可能拖慢节奏。希望这些经历能给同道中人提个醒。

曾几何时,我们写代码都是脑到手到,思路一来噼里啪啦就敲了出来。但引入 AI 助手后,等待它“思考”和输出的过程却变成了新的时间黑洞。我在项目中实现异步消息处理时,就想着让 AI 帮忙生成消费逻辑。结果问了一句话后,屏幕上那个“小圈圈”转啊转,AI 在云端“冥思”,我只能干瞪眼等着。短短几十秒虽不起眼,但累积起来也是不小的开销。更麻烦的是,AI 有时一股脑输出一大段代码,我不得不停下来等它滚动完毕,整个人节奏被打断

在这些等待的空档,我常不自觉刷会儿邮件或干点别的,但心里还惦记着 AI 的答复。这种状态下很难静下心处理其他任务,相当于人在“挂起”。如果没有 AI,我也许已经自己撸出一版初稿了。现在却因为等机器“想完”,宝贵的开发时间悄悄溜走。可见,AI 虽然能自动产出代码,但速度未必比得上人脑的直觉反应。等待 AI 的过程,就像在迭代里引入了额外的延迟,严重时让原本流畅的开发节奏变得支离破碎。

有了 AI 助手后,我一度尝试“并行开发”:一边让 AI 写某个模块,一边自己干别的活儿。但现实证明,来回上下文切换的代价远比想象中大。举个例子:在开发一个支付回调接口的幂等性处理时,我让 AI 去生成校验重复请求的代码,期间我则转去调试另一处业务逻辑。几分钟后 AI 代码出了结果,我切回来阅读和集成。可是刚刚脑子里的另一件事还没放下,又得把思路切换到 AI 给的代码上。结果来来回回折腾,两头进度都变慢

人并非真正擅长多任务处理。在写代码这种需要全神贯注的工作中,频繁切换上下文会造成严重的认知开销。每次从自己的思路跳到 AI 的思路,都需要时间理清 AI 产出的代码意图、回想之前的问题背景。这就好比一边听两个人讲话,你需要不断在他们之间“脑补”上下文,效率可想而知。尤其当AI生成的内容跟我原本的代码风格或思路不同,我更要花额外精力适应。试想在高峰期开发一个复杂的电商后端功能,还要像客服一样随时处理 AI 的“插话”,这种并行不但没有节省时间,反而拖慢了整趟进度

AI 输出的代码并非拿来即用,仔细审查和调试往往不可避免。在实际项目中,我多次遇到 AI 的“幻觉”——编造不存在的函数或误用接口。例如,上次让我哭笑不得的是,我请 AI 帮忙实现订单支付回调的幂等处理,它倒是很热情地写了一大堆代码,但细看发现里面调用了我们系统里根本不存在的模块函数!AI 过分自信地胡乱猜测,让我不得不重新检视每一行代码。研究也发现了类似现象:开发者接受的 AI 建议还不到 44%,大部分代码需要修改或重写,75% 的情况下程序员还得把 AI 输出每一行过目。这审查修改的过程,其实把省下的时间又花了回去。

即使AI代码能跑,大概率也不符合我们的业务预期。我曾让 AI 优化 Kafka 消息处理的逻辑,它给出的方案看起来头头是道,但跑起来才发现对乱序、重复消息这种边界情况处理不当,差点引入新bug。最后还是花时间把它“自作聪明”添的花里胡哨的部分精简掉。还有一次,AI 为了解决问题,提供了一个复杂的多线程方案,大材小用不说,还引入了线程安全隐患。AI 的过度热情有时适得其反,让我花更多时间返工。说到底,目前的 AI 代码可靠性不高,我不得不保持警惕,用挑错的眼光反复审视,就像代码审核一样一行行过,生怕它埋下什么坑。

很多人以为问AI问题不费吹灰之力,实际上想让AI听懂你、给出有用回答,需要反复斟酌提示词。在我的实际体验中,这几乎成了一门“对 AI 说人话”的艺术。我在项目里让 AI 帮忙生成商品库存同步的逻辑,第一次描述问题时它答非所问;我不得不换种表述,再补充业务背景,结果第二次仍不理想。就这样来来回回和 AI 深度对话了好几轮,感觉像在培训一个新人:得一点点纠正它的误解,不断细化要求。花在构思和优化提示词上的时间,看不见却实实在在。

有时为了让 AI 明白复杂场景,我甚至把相关代码片段、报错信息都贴给它,这过程本身就很耗时。比如实现订单流程里的异步退款,我需要它关注幂等性和事务性,光解释这业务背景就发了一长串提示。等AI逐渐“领会”我的意图,已经过去了不少时间。而这些来回沟通,本质上并没有产出新的业务价值,只是帮助 AI 搞清楚状况。可以说,提示词的内耗在一定程度上抵消了 AI 编码的加速优势。我们以为和 AI “对话”几句很快,实际却可能陷入旷日持久的调试对话,把节奏拖得更慢。

AI 编程助手的出现,无疑为开发者提供了全新的生产力工具。但正如上面的亲身经历和研究结果所揭示的那样,目前阶段的 AI 并非灵丹妙药。它在简单场景下也许能提高效率、减轻些体力活,但在复杂业务逻辑、大型代码库面前,AI 往往心有余而力不足。开发者不仅要花时间等待、来回切换精力,还要为 AI 的失误兜底、费心调教,这些隐性成本累积起来,就出现了生产力倒退的现象。当然,我们并不是在否定 AI 工具的价值,而是提醒大家理性看待它的适用性:当熟练度不够或应用场景不匹配时,AI 可能反而拖慢你。

站在一线开发者的视角,我感受到的是一种“又爱又恨”。AI 提供的新思路、新范式让我受益良多,但每当它帮倒忙时也确实让人头大。或许随着模型的进化和我们使用技巧的提高,这19%的劣势会转变为真正的提速优势。但在那之前,我们需要多一分清醒:别让对 AI 的乐观预期蒙蔽了双眼,要不断反思它在实际工作中的性价比。正如Greyhound Research的分析师所说,不要把开发者的爽感误当成了生产力

你怎么看?你在使用 AI 编程时遇到过哪些坑?

特斯拉(NASDAQ: TSLA)2025年下半年股票走势分析与预测

  • 2025年第二季度财报显示:特斯拉营收同比下降12%至225亿美元,净利润同比大幅下滑,创下至少十年来最大降幅。汽车营收连续第二季度下滑,但毛利率回升至17%优于市场预期,反映成本控制有所改善。
  • 交付数据:二季度交付38.4万辆,同比下降13%;今年上半年累计下滑21.3%。全年如要达成市场预期,必须下半年交付92万辆以上,挑战极大。
  • 公司现金流和财务状况稳健:截至2025年6月底,持有现金及等价物367.8亿美元,半年经营现金流47亿美元,同比增长,资本开支缩减。
  • 当前价格与技术格局(2025年7月下旬)
    • 股价近日反弹至316-320美元区间,短线走出“盘整-震荡”格局,日K处于布林带中轨附近,RSI位于50上,显著方向暂未确立。
    • 关键支撑位:326-331,321-324,316,312,300美元;
    • 重要阻力位:336-338,343,350,358,368美元。
    • 若有效突破320-335美元区间,或有望走出一波上行行情,反之若跌破315-316美元则需警惕进一步回调至300美元附近。
  • K线形态
    • 短线“三角形整理”,属于突破前的蓄势阶段。
    • 近期多次在335美元附近受阻,显示上方压力显著。
  • 汽车主业承压:传统Model 3/Y等主力车型面临生命周期末端压力,创新车型量产及低价新车型进度成为市场关注焦点。
  • Robotaxi和FSD(全自动驾驶):6月底奥斯汀Robotaxi服务初步投放,年底前计划扩展至全美多个城市,若业务落地顺利,有望打开新盈利空间。马斯克公开表示,年底美国半数人口可用Robotaxi,但监管落地进展需持续验证。
  • AI与机器人业务:特斯拉积极布局人形机器人Optimus,2026年目标大规模量产,远期市场看重其“AI+机器人+能源”科技生态。
  • 宏观因素:电动车市场竞争激烈(来自比亚迪、大众等),关税加剧成本压力,中美欧政策走向、利率变动也构成不确定性。
  • 市场整体评级大体中性偏谨慎
    • 汇丰:“减持”,目标价120美元,看空主因在于汽车业务增长瓶颈、盈利能力弱化。
    • 基准公司、Stifel:“买入/持有”,目标价分别为475美元(乐观,看重自动驾驶与新车型驱动)和440美元。
    • 多数分析师一致目标价在297-320美元附近,接近当前股价水平。
  • 短期展望:受业绩下滑、交付压力、市场环境恶化等因素影响,特斯拉未来1-2个季度可能维持高波动、震荡盘整格局。若Robotaxi及低成本车型进展顺利,市场情绪有望好转。
  • 重要技术策略
    • 多头关注突破335-343美元压力带,若量能配合,上行空间或至350/368美元区间。
    • 空头则需警惕跌破316及300美元关键支撑,若失守或有加速下行风险。
  • 风险提示:公司业务正面临结构性转型的生死关头,短期财报和交付低于预期有下探压力,而AI/Robotaxi等新业务能否如期放量决定中长期估值高度,投资者宜密切跟踪进展与市场情绪变化。

结论:当前特斯拉处于“业绩承压、转型博弈”关键阶段,短期观望氛围较浓,强力支撑与阻力价位参考可辅助高抛低吸操作。中长期能否重启大牛行情,需看自动驾驶、经济车型量产及AI等创新业务能否兑现高增长预期。投资者建议逢高减仓、逢低分批介入,并密切关注公司战略落地与外部环境变化。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

美元指数走势分析(2025年7月27日):降息与关税谈判双重变量下的风险与机会

  • 美元指数(DXY)近期维持震荡格局,区间大致在97-98附近。7月25日收于97.642,过去几交易日因避险情绪和美联储政策预期波动上扬,但整体反弹动能偏弱[1][2]。
  • 美国经济数据尚能为美元提供一定支撑,但市场预期美联储9月后降息,令美元吸引力承压。美国贸易、财政政策、全球地缘风险等均是短期影响主因[3][1][4]。
  • 盘面显示各主要货币对美元波动较大,反映多空博弈激烈,如欧元和英镑兑美元阶段性表现较强,美日、美加等则见美元短暂走强[1][5][2]。

二、中期走势(未来半年至一年)

Section titled “二、中期走势(未来半年至一年)”
  • 美元2025年上半年累计下跌超10.7%,创1973年以来最差同期表现,主因包括美国财政信用问题、关税政策、全球经济分化及降息预期加剧[4][6][7]。
  • 市场普遍看空中期美元,多家机构预计跌幅仍有空间,特别是如美联储确定降息周期,美元收益率优势进一步收窄,资金流有望转向非美资产和部分新兴经济体货币[8][9][7]。
  • 但也有观点认为,“强美元”格局未必立即逆转,劣势主要在于资金流动和贸易摩擦升级,需关注特朗普政府关税等政策带来的逆周期冲击[10][11][6]。
  • 美元全球储备货币地位虽难撼动,但长期看,全球去美元化、美国财政赤字与信用风险上升、贸易保护及多极货币体系等趋势,均削弱美元作为唯一避险资产的角色[7][9][8][12]。
  • 多数机构认为,美元有望进入更持久的弱势周期,大致跌幅区间被预估在4-10%甚至更大,预计波动会更频繁且方向受宏观和地缘事件影响较大[7][4][9]。
  • 若美国经济出现滞胀、政策收紧滞后、全球资本流动分化,则美元资产或继续承压[13][14]。

如果未来关税谈判顺利结束,美联储启动降息,美元指数将受到以下方面影响:

  • 通胀压力缓解:如果美国与主要贸易伙伴(如欧盟、加拿大、墨西哥等)顺利达成关税协议,避免新增或大规模关税生效,将直接减少进口商品的成本压力,有助于美国国内通胀回落或稳定[1][2][3]。
  • 市场不确定性下降,避险需求减弱:关税争端临近终结将减弱市场避险情绪,对美元的短期避险买盘也会减少,美元指数容易承压[4][5]。
  • 利于出口和全球风险偏好修复:贸易壁垒下降会支持美国出口并改善全球经济信心,带动非美货币(如欧元、日元等)反弹。
  • 美元吸引力下降:美联储降息意味着美元计价资产收益率下降,削弱美元的国际资金吸引力,外资流向新兴市场和高收益货币的意愿上升,美元指数易回落[6][7][8][9]。
  • 降息幅度和节奏决定下行空间:若美联储开启较为激进的降息周期(例如一年2次甚至更多),美元贬值空间将增大,回调目标或低于102.00区间甚至更低[7][10]。
  • 政策协同带来趋势性拐点:关税谈判成功降低通胀,反而给美联储更充足的降息理由,两大外部因素共同作用将推动美元中长期进入更明显的弱势周期。

风险:

  • 美联储货币政策转向(降息周期),美元吸引力下降。
  • 美国高企的债务、财政赤字与贸易逆差,长期削弱信用。
  • 全球去美元化和本币结算趋势加速,对美元长期结构性利空。
  • 地缘冲突缓解或非美经济复苏,资金周期性流出现象。
  • 政治风险和突发事件加大短线波动。

机会:

  • 美元短线反弹时,波段操作可捕捉区间收益,适合灵活型投资者。
  • 美元作为避险资产在全球危机或地缘冲突升级时仍具有短期配置价值。
  • 中长期逐步布局优质非美资产(如欧元区、日元、澳元、大宗商品相关资产)有望获取超额收益[8][15]。
  • 适合做套息交易、“高抛低吸”、跨币种资产分散风险。

根据汇总资料,2025年初美元指数高点在110附近,至7月末约97.6,年初至今跌幅约**-11.3%**,即投资美元指数同期ROI为-11.3%[4][6][1]。该跌幅创半世纪最差表现,已远超常规区间波动。

  • 政策不确定性反复:关税谈判节奏、协议细节及后续实施与否存在反复风险,若谈判破裂或美联储重回鹰派,美元调整节奏可能被打乱[1][11][4]。
  • 全球因素扰动:地缘局势突发、非美经济超预期走弱等可能导致资金回流美元,导致阶段性剧烈波动[12][4]。

以美元投资计,如目前美元指数处于97附近,若降息和贸易和解共同驱动,美元有望出现中长期持续贬值。参考近期美元季度最大跌幅达5%及年跌幅超11%的表现,若新政策实施,未来一年美元指数的投资回报(ROI)大概率仍为负值(-4%至-10%区间),非美货币与资产可能获得正向超额收益[7][8][2]。

关税谈判结束与美联储降息将形成“叠加利空”,美元短中期表现整体偏弱,投资策略宜抓住美元反弹时机转向分散非美资产配置,把控汇率风险,牢牢把握结构性机会。

  • 短线: 区间震荡、数据驱动,适合波段策略与谨慎高抛低吸。
  • 中期: 看空为主,关注美联储降息落地时点及全球资金流动向。
  • 长期: 重视多极货币框架下美元指数趋势性风险,逐步增加非美资产配置比例。
  • 需密切关注美联储、美国财政状况、贸易政策以及全球政治经济风险,严格风控与动态调整。

如以美元指数为主的投资,需警惕短期波动与长期趋势拐点,合理安排仓位和周期,不可忽略结构性下跌风险。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

给 Claude Code 换 OpenAI 协议兼容模型:claude-code-proxy 上手指南

claude-code-proxy 把 Claude Code 的「Anthropic 协议」一键翻译成 OpenAI 兼容的接口,让你在本地或云端自由切换 GPT-4o、Gemini 甚至 Ollama 等模型,无需改任何代码,成本立省,还能享受流畅的函数调用与流式输出。


  • Claude Code CLI 默认只认 Anthropic 官方服务器,贵,还经常限流;自建代理可绕过这一限制。
  • 市面已有各种「转译」脚本,但大都不支持函数调用模型智能映射,上手门槛高。

完整支持 /v1/messages,连图片 Base64 输入都能转译。

内置 OpenAI、Azure OpenAI、Ollama 等适配器,也能接任何 OpenAI-compatible 服务。

  • haiku → SMALL_MODEL
  • sonnet → MIDDLE_MODEL
  • opus → BIG_MODEL 一行环境变量就能换模型,无需手改代码。

让 Claude Code 在新模型上依旧能「写代码、调 API、边打一边看」。

超时、令牌溢出都会被优雅捕获并返回人类可读信息。


下文所有命令均在 macOS/Linux 终端执行

Terminal window
# 推荐超快的 uv
uv sync
# 或者老派 pip
pip install -r requirements.txt
Terminal window
cp .env.example .env
# 编辑 .env,填入 OPENAI_API_KEY 等

必填:OPENAI_API_KEY 可选安全项:ANTHROPIC_API_KEY(开启后需匹配才可访问)。

Terminal window
python start_proxy.py
# 或 uv run claude-code-proxy

默认监听 0.0.0.0:8082,日志级别 WARNING

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8082
export ANTHROPIC_API_KEY=any-value # 若代理端未设限,可随意写
claude # 开始愉快 Vibe Coding

只要改 .env

Terminal window
# 用 Azure
OPENAI_BASE_URL="https://your-azure-endpoint"
BIG_MODEL="gpt-4"
# 用本地 Llama3
OPENAI_BASE_URL="http://localhost:11434/v1"
BIG_MODEL="llama3.1:70b"

无需重启 Claude Code。

Claude 官方文档同样支持标准 HTTP(S)_PROXY 环境变量,可与 claude-code-proxy 叠加使用。

.envdocker-compose.yml 推到私有仓库即可在 CI 环境批量部署。


  1. 401 错误:确认前后端 ANTHROPIC_API_KEY 一致,或干脆删掉让代理「无门槛」。
  2. 模型名不识别:检查是否包含 haiku/sonnet/opus 关键词;否则手动设置 BIG_MODEL 等映射。
  3. 延迟高:本地 Ollama 建议开启 GPU 加速;云端可用 uvicorn --workers 4 提升并发。

有了 claude-code-proxy,你可以把 Claude Code 变成一把「万金油」—— 前端写 Vue,后端跑 Gemini,文档用 GPT-4o,全部一个 CLI 端口搞定。赶紧试试,把服务器跑起来,再留言告诉我你的体验!你觉得哪种模型映射组合最好用?


全球 ChatGPT Plus 订阅价格揭秘:苹果 iOS 平台尼日利亚最划算?

想开通 ChatGPT Plus,却不知道各国价格差别有多大? 这一期,我们聚焦苹果 iOS 平台,从多个国家和地区收集了 2024–2025 年的订阅费用并折算成人民币。

让我们一起看看,哪几个地区订阅成本最低,哪些又让人“肉疼”?


ChatGPT Plus 在各国的订阅价格(按折算人民币从低到高排序)

注:价格为 2024‑2025 年在苹果 iPhone 应用内的月度订阅费用。

国家本币价格折算人民币价格 (CNY)
尼日利亚₦9,900.00 NGN46.51
巴基斯坦Rs 4,900.00 PKR123.87
巴西R$ 99.90128.69
加拿大CA$ 24.99130.78
哈萨克斯坦₸9,990.00131.67
卡塔尔69.99 QAR137.87
阿尔及利亚$19.99 USD143.29
阿根廷$19.99 USD143.29
阿塞拜疆$19.99 USD143.29
玻利维亚$19.99 USD143.29
哥斯达黎加$19.99 USD143.29
厄瓜多尔$19.99 USD143.29
伊拉克$19.99 USD143.29
牙买加$19.99 USD143.29
约旦$19.99 USD143.29
科威特$19.99 USD143.29
黎巴嫩$19.99 USD143.29
毛里塔尼亚$19.99 USD143.29
毛里求斯$19.99 USD143.29
摩洛哥$19.99 USD143.29
纳米比亚$19.99 USD143.29
瑙鲁$19.99 USD143.29
尼加拉瓜$19.99 USD143.29
阿曼$19.99 USD143.29
突尼斯$19.99 USD143.29
美国$19.99 USD143.29
日本¥3,000 JPY145.65
以色列₪69.90 ILS149.43
智利$19,990 CLP149.77
韩国₩29,000 KRW150.25
墨西哥$399.00 MXN154.29
阿联酋AED 79.99156.11
秘鲁S/ 79.90 PEN161.99
阿尔巴尼亚$22.99 USD164.80
加纳$22.99 USD164.80
印度₹1,999 INR165.66
新西兰$39.99 NZD172.54
英国£19.99 GBP192.49
克罗地亚€22.99 EUR192.93
爱沙尼亚€22.99 EUR192.93
法国€22.99 EUR192.93
德国€22.99 EUR192.93
爱尔兰€22.99 EUR192.93
立陶宛€22.99 EUR192.93
斯洛文尼亚€22.99 EUR192.93
波兰99.99 PLN198.15

最低价 如果你在 尼日利亚,月费约 46.51 元,全球最低,主要得益于当地货币兑换率较低。 巴基斯坦次之,每月约 123.87 元

价格差不多 多数国家的订阅价格集中在 140 元左右。比如阿根廷、阿塞拜疆、哥斯达黎加等地的月费均为 19.99 美元,按照当前汇率约 143 元人民币

最高价 欧元区国家的收费明显更高。克罗地亚、法国、德国、爱尔兰等地每月 22.99 欧元,折合 192.93 元人民币。 英国也不便宜,19.99 英镑折合 192.49 元


可以看到,价格差异与汇率息息相关:

  • 美元定价国家:大多数非欧元国家直接按美元计价,19.99 美元的月费在约 143 元人民币 左右。
  • 本币定价国家:印度每月收费 ₹1,999,折算 165.66 元;巴西的 R$99.90 折合 128.69 元
  • 货币强势国家:欧元和英镑升值,拉高了当地订阅成本。

换句话说,一旦汇率变化,订阅成本也会跟着波动。 如果你经常出差或有多国 Apple ID,不妨对比一下各国价格再决定在哪里订阅。


简要分析几个常见区域:

  • 亚洲:尼日利亚和巴基斯坦价格相对低,东南亚和中东地区多采用美元定价,价格相对稳定。
  • 美洲:拉美很多国家也使用美元定价或本币锚定美元,费用基本一致。
  • 欧洲:欧元区和英国价格偏高,喜欢“薅羊毛”的朋友要三思。

如果你有能力注册多个地区的 Apple ID,可以考虑选择低价区订阅。但要注意,账号和支付方式的合法性问题不可忽视。


数据告诉我们,ChatGPT Plus 的订阅费用在全球范围内有明显差异。如果你关注成本,选择地区订阅会是一个不错的策略。

你所在的地区月费是多少? 还有哪些订阅小技巧值得分享?

Cursor 1.2 更新:Agent 终于能“思考 To-do 清单之后再动手”

开发复杂功能时,Cursor Agent 会“先列清单、再开干”


👀 你是不是也遇到这种 Cursor 使用体验?

Section titled “👀 你是不是也遇到这种 Cursor 使用体验?”

我们常用 Cursor 帮写代码,但一到多步骤、复杂任务,就容易“摸不着头脑”:

  • Cursor 在干嘛?为什么突然动数据库了?
  • 它下一步要干什么?是不是漏了测试?
  • 整体流程是怎样的?能不能让我先看计划?

尤其是涉及多个文件、数据库逻辑、前后端联动时,没有清晰规划,只靠“一步步回复”,很容易让人担心—— Cursor 真的是“有计划”地帮你解决问题吗?


🧠 Cursor 1.2 更新:Agent Planning & To-dos 正式上线!

Section titled “🧠 Cursor 1.2 更新:Agent Planning & To-dos 正式上线!”

在 Cursor 1.2 中,当你给 Cursor 一个复杂任务,比如:

“修复软删除患者导致的 SQL 错误,并确保逻辑覆盖所有 edge case。”

Agent 会自动:

  • 分析问题的上下文
  • 拆分成明确的子任务
  • 生成 To-do 清单,每个任务都可以勾选、追踪进度
  • 在执行过程中,动态标记已完成的步骤

这不再是「黑箱」Cursor,而是透明可控的开发搭档


🪄 示例:修复一个软删除关联的查询错误

Section titled “🪄 示例:修复一个软删除关联的查询错误”

来看一个真实开发中会遇到的问题:

eager_load(:patient)

这行代码在 Rails 中会执行 LEFT OUTER JOIN,但不会自动排除被软删除(soft delete)的关联记录

Cursor 在识别问题后,会这样分解任务:

  1. 修改查询逻辑,排除软删除的 patient
  2. Advice 模型新增 scope:只取 active patient 的数据
  3. 编写测试,验证软删除数据确实不会出现在结果中
  4. 把这个 fix 和最佳实践记录进 memory bank,供未来复用

整个流程中,你可以随时检查它下一步打算做什么,也可以跳过、调整或重试某一步。


✍️ 写代码不再是“盲目试错”,而是“协作式拆解”

Section titled “✍️ 写代码不再是“盲目试错”,而是“协作式拆解””

这个功能核心改变了我们和 Cursor 的协作方式:

  • 任务透明:你知道它总共要做几步,不再被动等待
  • 进度可控:每个子任务都有明确状态,支持打断和回滚
  • 经验积累:可以一键存入 memory,未来相似问题自动调用

说得直白点,Cursor Agent 现在像一位靠谱的实习生,不仅会写代码,还会先列出执行计划给你确认。


升级 Cursor 到 1.2 版本以上,确保你的项目里启用了 Agent 模式。

输入一个多步骤任务,比如:

“重构某段代码,确保逻辑清晰并覆盖测试,另外顺便更新 README。”

你会看到 Agent 自动拉起 To-dos 面板,一步步推进任务,透明且高效。


你是否愿意把「规划任务」这件事交给 AI? 你觉得 Cursor 拆分的计划是否符合你平时的工程思维?

欢迎在评论区聊聊你的看法!


ChatGPT Agent 试用感受:能读文章,但还不够“聪明”

ChatGPT Agent 初体验,感觉像是一个认真但还不太聪明的实习生。


有时候刷到一篇看起来很有价值的研报、深度评论,标题起得诱人,但内容复杂,专业词太多,看完得花半小时。

我最近就碰到一篇《美元还能跌多久?》的分析文,来自华尔街见闻,标题炸裂,内容也挺深,但实在没时间一字一句读完。

于是,我动了个念头:

能不能用 AI Agent 帮我快速分析总结一下?

于是就有了这次的试验——我让 ChatGPT Agent 试着帮我读文章。


简单说,这是 ChatGPT 的“多步执行”版本。

你不是只丢一个 prompt、返回一段答案,它可以多轮调用工具、多步骤完成复杂任务,比如阅读一篇文章、调用搜索、提取观点、做分析等等。

听起来很厉害,我以为能帮我“代劳”那种信息量大的文章分析任务。

结果呢?


耗时 14 分钟,结果可用但不实用

Section titled “耗时 14 分钟,结果可用但不实用”

我把《美元还能跌多久?》这篇文章内容传给 Agent,然后问它:

帮我提炼文章观点,给出重点逻辑,并附上投资相关的参考建议。

它确实很认真地做了事,


等了 14 分钟后,返回了一份结构化的分析,

大概分成:

  • 美元走弱的短期和长期逻辑
  • 作者引用的经济数据和观点
  • 市场对美元未来走势的分歧
  • 汇率与货币政策之间的联动机制

乍一看内容挺全,甚至有总结语句,看起来像模像样。

但最大的问题是:太笼统、太教科书,缺少“实际操作价值”。

比如我希望知道:

  • 现在是否已经跌到底部?有没值得关注的信号?
  • 对持有美债、QDII、美股的人,有何启示?

Agent 并不能回答这些。它只是在复述文章内容,没有“跳出”去整合更宽广的上下文。


整个过程让我感觉,它就像一个认真读完材料、做了笔记的实习生:

  • 会归纳,但不敢判断;
  • 会复述,但不会提炼洞见;
  • 会说“文章提到”,但不会说“这意味着你可以考虑xxx”。

更别说结合我自己的投资组合,或者当前汇率数据,给出实用建议了。

总结一下就是:内容可参考,但实用性不强。


那还能不能用?什么时候用比较合适?

Section titled “那还能不能用?什么时候用比较合适?”

虽然这次有点失望,但我觉得 ChatGPT Agent 依然有用。

它适合这些场景:

  • 懒得读全文时快速预览:比如开会前 10 分钟,快速抓重点
  • 帮忙整理结构:它比我快,能列出段落逻辑和要点,适合做讲解稿的底稿
  • 信息过载时的减负工具:让它帮我读 5 篇研报、提取共同点,这种体力活它很擅长

但要指望它帮我做判断、拍板、制定投资策略,目前还差得远。

或许需要继续深入地和 ChatGPT Agent 互动,给出更多上下文信息,才能让它更实用。


这次试用最大的感受是:

AI 不是替你思考的人,它是帮你快速“接管重复劳动”的加速器。

判断、理解、联系实际、结合经验,这些还是人类要做的事。

未来我会继续尝试把 ChatGPT Agent 用在信息初筛、知识归档、文档生成等任务上,而不是期待它一上来就“替我思考”。


你有没有试过用 ChatGPT Agent 做什么任务?效果怎么样?

留言区聊聊,我们一起探索 AI 真正能帮上忙的地方。

GitHub Copilot 实战:AI 帮你 Code Review 和写 Commit Message

👀 引子:代码多了,问题也多了

Section titled “👀 引子:代码多了,问题也多了”

做过测试、维护、重构的同学都懂,代码多起来后:

  • 一个改动牵一发而动全身
  • 一个小错误可能埋雷全局
  • 每次提交都要写 message,写不好还要被 Leader 提 Review

那有没有工具能帮你自动检查、自动总结?

有!

就是今天要介绍的——GitHub Copilot 的 Code Review 功能 + Commit Message 生成


🚀 快速开始:安装 GitHub Copilot 插件

Section titled “🚀 快速开始:安装 GitHub Copilot 插件”

在 VSCode,Cursor,Kiro,Trae, Windsurf 等插件市场中搜索:

GitHub Copilot

点击安装即可,记得用 GitHub 账号登录,并订阅(目前需要 Copilot 订阅)。

安装后,在侧边栏会出现 Copilot 图标,点击即可打开。

GitHub Copilot 提供三种个人版本: • Free(免费):每月可使用 2 000 次代码补全 + 50 次 Chat/编辑请求,适合初学者试用。 • Pro:每月 10 美元(或年付 100 美元),支持 无限补全与聊天使用,并包含 300 次“高级模型请求”(超额可按 $0.04/次 付费)。 • Pro+:每月 39 美元(或年付 390 美元),在 Pro 的基础上提升至 1 500 次高级请求额度,支持更多 AI 模型和优先访问权。

此外,Copilot Business(团队/企业版)售价为每用户 19 美元/月,包含团队管理、安全策略和 300 次高级请求额度。


在 VSCode 的 Source Control 面板(⌘+Shift+G)中,你能看到变更列表。

点击如下图红框中的按钮:

💬 图标 = Code Review - Uncommitted Changes

Copilot 会自动分析你的变更,逐个文件、逐行代码给出建议。


来看一段真实截图(如下👇):

User.new(
FixturesSetting[ENV['TARGET_ENV']] || 'sit']['users']['user_admin']
)

Copilot 自动分析说:

User.new 期望的是单独参数(username, password),你却传了个 hash,建议改成用 splat 操作符。

而且给出修改建议:

FixturesSetting[...]
**FixturesSetting[...]**

是不是比一个个找错高效多了?


每次提交是不是都想偷懒写个 “fix bug” 或 “update”? 🙃

GitHub Copilot 帮你自动生成有语义的 message:

只需要点一下这个按钮👇:

它会根据你的变更内容,自动生成一段合适的提交说明,比如:

feat: Refactor specs to utilize FixturesSetting for user and patient data across multiple test files

准确、清晰、还符合语义化 commit 标准。


  • Code Review 自动化:快速定位逻辑错误、不合理写法
  • Commit Message 自动生成:再也不怕提交“写不出名字”的变更
  • 多文件多段落支持:整个修改一气呵成

你平时是怎么做代码审查的?你会愿意让 AI 来帮你审查和写 commit 吗?

欢迎在评论区聊聊你的经验~

Claude Code 实践: 生成和维护接口文档 PDF 版本

日常工作中合同、协议、BLE 通讯规范……公司里总少不了一堆 PDF。 看着精美,改起来要人命:复制粘贴乱了套,排版全跑偏。 这篇文章分享一个“逆转 PDF → Markdown → PDF”的实战流程,用 Claude Code 三步搞定,还能顺带保留可编辑的 Word 版本。


  • 只剩 PDF,Word 丢了 → 无法维护
  • 合作伙伴只收 PDF → 格式必须统一
  • 想加新接口 / 表格 → 需要可文本编辑的格式

Claude Code 正好填补了这个坑。


PDF → Markdown(可编辑) → 更新 → PDF/Word 核心就是借助 Claude Code 的多模态解析与格式化能力。


目标:保留标题、表格、图片引用,一键转成干净的 .md

推荐提示词

请将下面这份 PDF 全面解析为 Markdown:
1. 保留所有标题层级 (#-###)
2. 表格按 Markdown 语法显示
3. 图片用 `![alt](placeholder)` 占位
4. 页脚、页码忽略
返回完整 Markdown 文本

Claude Code 会自动识别 PDF 中的结构,生成清晰的 Markdown 文档。

# CGM BLE 通讯协议 v2.1
## 1. 数据帧结构
| 字段 | 长度(Byte) | 描述 |
|-------------|-----------|-------------------|
| Frame Head | 2 | 固定 0x55AA |
| Length | 1 | 后续字节长度 |
| Cmd | 1 | 功能码 |
| Payload | N | 业务数据 |
| CRC16 | 2 | 低字节在前 |
![帧结构示意](fig/frame.svg)
> **注**:所有多字节字段均为 Little-Endian。

目标:补充最新接口、修正描述,让文档重新鲜活。

自动分析代码

请审查这段 Markdown,找出所有接口代码块:
- 检查参数命名是否一致
- 标注潜在错误并给出改进建议

Claude Code 会自动分析 Markdown 中的代码块,找出潜在问题并给出改进建议。

发现 2 处潜在问题:
1. “Cmd=0x07 上传血糖” 与接口清单中描述不一致(清单写 0x08)
2. “CRC16 校验算法” 未说明多项式,可参考 ITU-T X.25
改进建议:
- 更新接口清单或修正文档
- 在 <2.3 CRC 计算> 一节补充多项式 0x1021

或者手动补充细节

### /device/sync
| 字段 | 类型 | 必填 | 说明 |
|---------|------|------|---------------------|
| uid | str | Y | 设备唯一标识 |
| ts | int | Y | Unix 时间戳(秒) |
| glucose | int | Y | 当前血糖(mg/dL) |

目标:把更新后的文档再次输出为标准 PDF,递交合作伙伴。

推荐提示词

请将这份 Markdown 渲染为排版美观的 PDF:
- 使用 A4 页面
- 标题自动生成目录
- 表格水平居中

Claude Code 会生成一个格式统一 PDF 文档。


公司需要 Word 版本?用单页 HTML 曲线救国!

Markdown ➜ 单文件 HTML

将下列 Markdown 转成自包含(内联 CSS)的单文件 HTML,
方便 Word 打开无依赖。

Claude Code 会生成一个包含所有样式的 HTML 文件。

<!DOCTYPE html><html><head>
<meta charset="utf-8">
<style>
body{font-family:"Microsoft YaHei";}
h1,h2{margin:1em 0;}
table{border-collapse:collapse;width:100%;}
td,th{border:1px solid #ccc;padding:6px;text-align:center;}
</style>
</head><body>
<h1>CGM BLE 通讯协议 v2.2</h1>
<h2>1. 数据帧结构</h2>
<table>
<tr><th>字段</th><th>长度(Byte)</th><th>描述</th></tr>
<tr><td>Frame Head</td><td>2</td><td>固定 0x55AA</td></tr>
...
</table>
</body></html>

然后:

  1. Word 打开 HTML → 另存为 DOCX/PDF
  2. 得到可本地编辑的 Word + 最终 PDF,一鱼两吃。

通过 Claude Code 把失控的 PDF 拉回可编辑世界,再无痛输出标准 PDF/Word,一次解决“格式统一”与“内容可维护”两大痛点。

你手里还有哪些顽固的 PDF 想复活? 留言聊聊,说不定下一篇就写你的场景!

Kiro 实战:用 Kiro 实现 Rails 测试数据环境隔离,让 Spec 更清晰、可控

“为什么我本地跑得过,CI 一直 fail?”

“同一个接口,在 SIT 和 TEST 环境下返回的数据不一样?”

在实际项目中,如果你也遇到过这种 测试数据混乱环境不一致导致测试不稳定的问题,那本文一定能帮到你。

我们团队最近结合 Kiro 工具,在 Rails 项目中自动生成落地了一套简单又实用的方案:Spec 测试数据按环境隔离管理。不仅让测试变得更可靠,还为多环境协作打开了新思路。


🧠 为什么要做环境隔离的测试数据?

Section titled “🧠 为什么要做环境隔离的测试数据?”

在真实场景下,我们往往有多个部署环境:devsittestproduction……

每个环境可能使用 不同的账号、设备 ID、病人数据等 fixture,如果不加管理,测试脚本很容易耦合具体数据,导致:

  • 测试数据污染多个环境
  • 本地能跑,CI 失败
  • 引发「幽灵 Bug」:难复现、难排查

所以我们希望做到一件事:

测试数据也能像配置文件一样,按环境加载、按需注入


✅ Kiro 是如何帮助我们完成这个过程的?

Section titled “✅ Kiro 是如何帮助我们完成这个过程的?”

我们先把问题描述清楚,采用 Documentation-oriented 面向文档的方式

再看看 Kiro 提出的方案

Kiro 提出的这个方案,不仅让测试更加「干净整洁」,还解决了团队协作中常见的环境数据冲突问题。

他做了以下几件事:

  • 搭建了 fixtures_setting.yml 文件结构并抽取多个环境常用数据
  • 编写了通用的 FixturesSetting 工具类
  • 帮助 review 所有 spec/requests 中的数据使用方式
  • TARGET_ENV=sit rspec 实现按环境运行测试

最终,Kiro可以做到:

一套 Spec,跑遍所有环境

不仅稳定,而且便于 CI/CD 持续集成,还能作为「测试数据管理中心」,供其它服务读取。


🔧 怎么做?用 Kiro + YML 轻松搞定

Section titled “🔧 怎么做?用 Kiro + YML 轻松搞定”

Kiro 采用了三步走方案,核心是一个配置文件 + 一个加载类 + Spec 调用约定:


📁 第一步:创建统一的 fixture 配置文件

Section titled “📁 第一步:创建统一的 fixture 配置文件”

Kiro 新增了一个文件:

config/fixtures_setting.yml

里面以环境名分类管理 fixture 数据,并从 spec/requests 中抽取出常用的用户、病人等数据。

development: &development
sit:
users:
user_sit:
username: user_sit
password: 11111111
patients:
patient_001:
name: 张三
age: 36
test: &test
<<: *development
production: &production
<<: *development

这样,我们的测试数据就不再散落在各个 spec 文件中,而是集中管理、按环境组织。


💎 第二步:用 Ruby 类读取配置数据

Section titled “💎 第二步:用 Ruby 类读取配置数据”

Kiro 实现了写了一个小工具类 FixturesSetting,专门加载这个 yml 文件:

app/settings/fixtures_setting.rb
class FixturesSetting
def self.[](env)
@settings ||= YAML.load_file(Rails.root.join('config/fixtures_setting.yml'))
@settings[env]
end
end

这样在任何地方,都可以通过 FixturesSetting[ENV['TARGET_ENV']] 取到对应环境的测试数据,非常灵活。


🧪 第三步:在 spec 中使用环境数据

Section titled “🧪 第三步:在 spec 中使用环境数据”

来看个具体例子。我们有个用户登录接口的测试:

user_params = FixturesSetting[ENV['TARGET_ENV']]['users']['user_sit']
post '/api/login', params: { username: user_params['username'], password: user_params['password'] }

然后我们运行测试时,只需要设置环境变量即可:

Terminal window
TARGET_ENV=sit rspec spec/requests
Finished in 15.55 seconds (files took 3.64 seconds to load)
3 examples, 0 failures

你可以轻松切换为 testuatprod,每个环境都有自己的 fixture,互不干扰


  • 可以结合 dotenv 或 Rails credentials 自动注入环境变量
  • 考虑将 FixturesSetting 封装为 gem 或 engine,更好复用
  • 后续也可支持动态生成数据而非写死

你们团队在做 API 测试时,也遇到过测试数据混乱的问题吗? 你觉得这套方案是否适合自己的项目?

欢迎在评论区留言交流,我们可以一起打磨更通用的测试管理工具~


这篇文章,我们介绍了如何在 Rails 项目中结合 Kiro 提出的方案:

  • 用 YAML 管理不同环境的测试数据
  • 用工具类读取并注入到 Spec 中
  • 实现了按环境运行、数据隔离、测试可控

这就是一个简单实用、可扩展的测试环境隔离方案。 让测试更清晰,也让协作更安心。

读后感:《AI Coding 非共识报告》

腾讯研究团队通过数百位开发者的调查数据和企业动向案例,深入分析了 AI 编程(AI Coding)对个体和组织的影响。本篇文章将从 C 端消费者和 B 端企业的渗透程度出发,总结开发者和公司对 AI Coding 的态度、使用场景和 ROI 评价,并提出 AI 时代开发者的核心竞争力与发展方向。


C 端消费者:渗透迅速,初显规模化趋势

Section titled “C 端消费者:渗透迅速,初显规模化趋势”

根据 Menlo Ventures 和 Morning Consult 于 2025 年发起的美国消费者调查,AI 已快速渗透进日常生活多个场景,成为“隐性工具”。

C 端主要使用场景包括:

  • 文字写作支持(51%):AI 常被用于协助笔记、写信、生成文章初稿等工作/学习内容。
  • 程序生成与代码辅助(47%):AI 被用于快速编写代码、修改已有结构或探索表达方式,尤其对入门用户帮助明显。
  • 搜索研究/学习辅助(43%):AI 被当作英文书籍摘要工具、基础资料整理助手等。
  • 图文/音视频创作(约 37%-38%):如生成 PPT、封面图、脚本草案等。

Menlo Ventures 提出:虽然大部分消费者还没有系统性整合 AI 工作流,但 AI 工具在“非专业场景”的使用正成为主流。

同时,腾讯研究院指出,中国用户也呈现相似趋势,但使用场景更偏向教育、内容写作、翻译辅助、设计提效等“实用型任务”。


B 端企业与开发者:以代码工具为核心的生产力变革

Section titled “B 端企业与开发者:以代码工具为核心的生产力变革”

AI Coding 工具在企业中以 GitHub Copilot 为代表,是众多公司“尝鲜”AI 的第一选择。其核心价值集中在三个方向:

1. 企业最常使用的 14 类 AI Coding 场景(来源:腾讯研究院 & 53AI)

Section titled “1. 企业最常使用的 14 类 AI Coding 场景(来源:腾讯研究院 & 53AI)”
  • 代码辅助(生成、补全、改写)
  • 文本内容生成(报告、PPT 等)
  • 知识/文档问答(如自动查找接口说明)
  • 产品原型设计(草图 → HTML)
  • 数据分析与商业洞察
  • 销售话术优化/流程辅助
  • 客服机器人/CRM 整合
  • Bug 发现与自动化测试
  • DevOps / MLOps 工具链自动集成
  • 用户行为分析
  • 异常检测 / 安全告警
  • 自动筛选简历 / 撰写 JD
  • 合同审查 / 法务辅助
  • 财务对账 / 票据审核

  • Stack Overflow 2024 调查:76% 的开发者已使用或计划使用 AI 编程工具,其中 63% 为全职开发者。
  • 开发者感受:72% 表示正面或非常正面,只有 6.4% 明确表示负面。
  • 企业反馈:大公司使用 AI 工具后,平均节省 10%~30% 的人力投入或交付周期。
  • 个体开发者 更关注:补全效率、代码风格一致性、避免重复工作。

3. 使用频率数据(来源:Proxify)

Section titled “3. 使用频率数据(来源:Proxify)”
  • 77% 的开发者每天使用 AI 工具,去年同期为 47%。
  • 50% 以上用户表示每周节省 6 小时以上开发时间。
  • 无人表示 AI 工具浪费了他们时间。
  • 99% 的开发者愿意未来继续长期使用 AI 编程工具。

  • 正向派:认为 AI 提升了效率,是开发流程中“默认的一环”。
  • 中性派:认为“工具虽好”,但仍需搭配人类评审、流程规范。
  • 负面派:担心代码质量下降、不稳定或对组织结构带来冲击。


AI 时代开发者的核心竞争力与发展方向

Section titled “AI 时代开发者的核心竞争力与发展方向”

即便 AI Coding 工具再强,开发者依旧具备不可替代的核心价值。

一、从“码农”到“工程负责人”

Section titled “一、从“码农”到“工程负责人””

AI 工具让编码执行成本大幅下降,未来更看重的是谁能组织团队完成目标,谁能设计系统架构而非手写每一行代码。

能站在业务和产品角度思考问题,懂用户、懂目标,才能指导 AI 工具做出真正可用的方案。

不只是“用 AI 写代码”,而是让 AI 成为“团队一员”。懂得如何喂 prompt、如何检查结果、如何复用模型能力,是开发者的新常识。

四、多工程能力 + 持续学习能力

Section titled “四、多工程能力 + 持续学习能力”

AI 工具很强,但遇到跨模块、边缘案例、业务逻辑复杂的地方,仍需要开发者“会调研、懂逻辑、能判断”。


AI Coding 正以飞快的速度从“实验工具”变为“基础工具”。不论是 C 端的写作/编程辅助,还是 B 端的产品研发、设计、测试,AI 已经深度介入开发流程。

未来三年,最大的差距不会是“会不会用 AI”,而是“谁能让 AI 成为助力而不是障碍”。

希望每一位读者都能在 AI 时代,找到属于自己的价值锚点。

✨设计师福音:Figma Make AI 聊天就能生成原型与应用

有没有想过,只用一句话或一张图,对话式地告诉 Figma,就能直接变出一个可点交互的原型,甚至一个上线的 Web 应用? Figma Make 正是这样一款智能工具:用户可以通过与 AI 聊天,将你的设计想法或现有 Figma 设计稿,瞬间转成“从提示到代码”的产物。简单、高效,也更有乐趣。

https://www.figma.com/make/


不需要写一行 CSS,只需输入“帮我做一个登录页,带邮箱、密码、登录按钮”,AI 会自动生成高保真界面,并且支持点击交互。 这一步让设计从脑海直接跃出屏幕,省去了反复构建画布的麻烦。


有现成的视觉素材?没问题!你可以上传插图、LOGO、照片,AI 会识别样式和布局,把它变成组件或背景,快速构建视觉界面。 这是从“视觉到原型”的桥梁,特别适合品牌推广、内容营销场景。


不想从头来?直接把设计好的 Frame 复制到 Figma Make 中,AI 会继续补全交互逻辑和部分布局细节。 既保留原设计,又动手能力再上一层,省时又方便。


生成的内容,不只是个草图,还能发布成真实可访问的 Web 应用。

你可以直接在 Figma Make 中预览,或者部署到自定义域名上。

https://money-factor-60900756.figma.site/

Figma Make 更集成 Supabase 后端,支持用户认证、数据存储,还能定制域名上线。 设计+原型+发布,这条链一气呵成。


5. 选中元素控件继续与 AI 聊天微调

Section titled “5. 选中元素控件继续与 AI 聊天微调”

想优化某个按钮的颜色、边距或交互动效?选中它,直接再对话:“把按钮颜色调到渐变紫色”,“增加点 hover 动画”。 AI 会按需求即时调整,细节更精准,也能进一步推进原型走向上线。


Figma Make 就像你的 AI 设计助手——它能从文字、图片、现有设计中快速生成可交互原型,还能部署上线,并支持实时微调。 它极大简化了设计与开发的协作流程,让设计师不再局限于静态画布,而是和 AI 一起共建真实产品。 如果你是产品经理、设计师或创意创业团队,这款工具值得早点尝鲜,开启从想法到上线的加速之旅。


你觉得用 AI 聊天生成原型,听起来怎样? 你有想做的小项目可以试试?评论告诉我👇

Claude Code Specs Generator:让 Claude Code 像 Kiro 那样先看文档再写代码

不想再被“vibe-coding”带跑偏?

这款开源小工具 Claude Code Specs Generator 给 Claude Code 配上了一套“说明书生成器”——自动产出 6 份核心文档,把业务、技术、架构、任务写得明明白白,让 Claude 先看说明书、再动手敲代码。


  • AI ≠ 读心术 当上下文混乱,Claude 常常“自作主张”重写依赖或重复造轮子。Amazon Kiro IDE 用“Spec-Driven Development”解决了同样的痛点,实践证明:先生成规格,再生成代码,错误率大幅下降。

  • 团队协作节省 30% 沟通成本 统一的 product.md、tech.md、structure.md 让新人 10 分钟完成代码导览,减少口头交接。

  • Claude 推理更准 把这 6 份文档写进 CLAUDE.md,AI 每次响应都会加载它们,避免“记忆断片”。


分类具体文件作用
Steeringproduct.md / tech.md / structure.md业务目标、技术栈、目录规范
Specsdesign.md / requirements.md / tasks.md架构设计、用户故事、开发任务

系统分析你的仓库 & 文档,一键 /specs-create 全自动产出。

  • /specs-create 首建规格
  • /specs-init 刷新上下文(自动 /clear → /init)
  • /refresh-specs 根据最近 git 提交增量更新

Specs 写完后,生成器把文件路径写进 CLAUDE.md,下一次你在终端输入 @claude fix tests,Claude 就会参考最新规格执行。


  • 新项目零到一 拉个空仓库,跑 /specs-create,立刻得到“产品-技术-结构”三份方向文档,再迭代设计、任务。
  • 老项目治理 代码写多了想补文档?同样一键。生成器会扫描现有 PRD/TODO 文件并合并内容。
  • 持续交付 每发一个 PR 就触发 /refresh-specs CI 脚本,让规格跟着代码一起演进。

  1. 安装

    Terminal window
    npx @kellemar/claude-code-specs-generator
    • 不需要全局安装,执行完毕即在当前项目写入 .claude/specs/ 目录。
  2. 一键生成规格

    Terminal window
    /specs-create

    解析代码、旧文档,自动产出 6 份 Markdown 并更新 CLAUDE.md

  3. 加载上下文

    Terminal window
    /specs-init

    实质是 /clear → /init 组合,让 Claude 每轮都带着最新 Specs。

设置完成后,您的项目将包括:

your-project/
├── .claude/
│ └── steering/
│ ├── product.md # Product vision and business goals
│ ├── tech.md # Technology stack and constraints
│ └── structure.md # Code organization patterns
├── specs/
│ ├── design.md # Technical architecture
│ ├── requirements.md # User stories and acceptance criteria
│ └── tasks.md # Current development tasks
└── CLAUDE.md # Updated with document references

Specs Generator = “Kiro 味”的免费插件 无需跳槽到新 IDE,也能在现有 Claude Code 工作流里享受规格驱动的安全感。现在就试试 /npx @kellemar/claude-code-specs-generator,让 AI 和人类都少走弯路!


🤔 你会把它加进自己的项目吗? 留言聊聊,你最想自动化哪一步!

(下一篇我们将拆解如何把 Specs 写成 Mermaid 图,记得关注!)

AI时代软件工程师的核心能力在管理软件项目

💥引言:当“技术大牛”不再吃香

Section titled “💥引言:当“技术大牛”不再吃香”

还记得那个年代吗?只要你会写代码,能搞定系统架构,刷爆 LeetCode,一身技术流光闪闪,那就能横着走。 但 AI 来了,一切都变了。

今天,一个不怎么会写代码的人,靠 ChatGPT 就能拼出个 App;一个刚入行的新人,也能用 Claude 写自动化脚本,连测试都能顺带跑起来。

这时候你是不是也开始怀疑:“那我们这些工程师,到底还有什么价值?”

其实答案很明确:

AI 时代,真正值钱的能力,不是技术细节,而是管理能力。

不是传统意义上的“带团队”,而是广义的工程管理能力—— 怎么定义目标、组织信息、分解任务、协调 AI 和人、评估成果、及时调整。


🧠一:分配经济时代,人人都是“管理者”

Section titled “🧠一:分配经济时代,人人都是“管理者””

Dan Shipper 提出一个非常有趣的概念:

我们正从“知识经济”进入“分配经济”时代。

过去拼的是谁掌握更多技能; 而现在,拼的是谁能把 AI、信息和资源分配得更好。

这不是空谈,而是你每天用 AI 工作时的真实写照:

  • 如何把任务说清楚,让 AI 懂你?
  • 如何把一个复杂需求拆成几块,让不同工具各自高效完成?
  • 如何挑选模型,设置提示词,评估结果质量?
  • 什么时候放手让 AI 自己跑,什么时候你该下场细化?

听起来是不是很熟悉?这不就是一个“管理者”的日常工作吗?

最关键的是:

管理的门槛被 AI 降低了,每个人都可以当项目 owner。


🛠 二:未来最值钱的核心能力有哪些?

Section titled “🛠 二:未来最值钱的核心能力有哪些?”

根据 Dan Shipper 的观察和亲身实践,未来最稀缺的能力会包括:

  • 信息组织与问题表达:不是你懂得多,而是你能把问题讲清楚。
  • 资源调度和任务分解:把任务安排给合适的人/AI,并协调产出。
  • 判断力和结果评估能力:这东西做得好不好?值不值得信?
  • 愿景设定与目标驱动:告诉 AI 和团队“我们要去哪儿”。

说得更直白点:

你要学会用 AI“开公司”,而不是自己“写代码”。


🔁 三:通才价值回归,小团队才是未来

Section titled “🔁 三:通才价值回归,小团队才是未来”

AI 另一个巨大的改变,是它让“通才”变得更吃香了。

在 Dan 所在的团队里,15 个人个个身兼数职:

  • 一个人能写代码、做设计、做运营;
  • 一个项目可以从 0 到上线只靠 2-3 人完成;
  • AI 成为“专家补丁”,帮通才们在各自领域快速达标。

你不再需要每个岗位都配一个深耕十年的专家。 而是需要一批拥有大局观+动手能力+AI协同力的人。

未来的公司,也许就像现在的创业小团队:

每个人都能扛项目,每个人都能与 AI 协作生产,每个人都具备“管理式心态”。


🚀结语:AI 没有银弹,真正的能力才是王牌

Section titled “🚀结语:AI 没有银弹,真正的能力才是王牌”

是的,AI 很强,但它不是神。它无法替你设定目标,也无法判断什么是真正有价值的方向。

未来的软件工程师,不再只是“写代码的人”,也不是只懂架构的“技术大牛”。

而是:

能调度工具、评估成果、拆解问题、推动进度的“工程管理者”。

所以,与其卷新模型新框架,不如重新思考:

你真的掌握“分配 AI 能力”的管理技巧了吗?


📌 你怎么看? 你是否也有类似的转型体验,或者正感受到“AI 抢饭碗”的焦虑? 欢迎留言聊聊你对未来工程师能力模型的理解!

别再当“架构大牛” AI 时代工程师的下一站:工程管理者

AI 写代码越来越像开挂,可上线的项目却没少翻车。 如果交付还是拖、故障照旧爆,你的“炫酷架构”就只是 PPT。 真正的稀缺点,从来不是代码,而是工程、质量、安全和管理。

你有没有被这些场景扎心?

  • 代码秒生成,测试与回归却卡了两周
  • 模型回答“差不多”,产品经理追着问“到底行不行?”
  • 上线当天 CPU 飙红,工单排队

再不升级自己的 工程治理能力,AI 反而会放大团队的混乱。

思考一下:假如明天 80% 代码都交给 AI,你的核心价值还剩什么?


  1. AI 不是银弹:自动化≠可靠交付
  2. 工程为王:流程、质量、风险才是壁垒
  3. 管理进阶:沟通、协同、决策比写代码更难
  4. 成长路线:从“技术大牛”到“工程管理者”

“让 AI 来写就行” 是最大误区。 模型生成的代码看似完美,却常埋“边角 Bug”。 质量、可维护性、依赖升级……AI 没法拍板。

问题不在算法,而在缺乏工程保障。 CI/CD、测试用例、灰度策略这些“老活儿”,反而成了 AI 时代的硬刚需。


上线才算成绩单。 稳定性 = SLA × 可观测 × 演练。 把“部署后 30 天零事故”设为 KPI,你的技术决策就会更实际。

  • 建立 质量门禁:单元 > 集成 > 验收
  • 引入 错误预算:让产品、运维一起为风险买单
  • 每周 Post-Mortem:事故复盘写进 Playbook

试想:你们团队有清晰的“回滚脚本”吗?留言告诉我~


高手不是自己写得快,而是让十个人写得又快又对。 在 AI 帮忙产码后,协同、优先级、资源调度 立刻浮出水面。

  • 沟通:翻译商业目标 → 技术任务
  • 协同:拆分里程碑,锁关键路径
  • 决策:Bug vs. Feature?看数据,不看吵架


阶段关键能力工具/方法
助攻期流程守护Git Flow / Code Review
带队期质量驱动Test Pyramid / CI 绿灯
经营期风险治理SLA / SLO / 错误预算
战略期组织设计OKR / 预算 / 招聘

别只刷新框架,多做“工程教练”。 AI 可以写函数,写不出 文化与制度


AI 加速了写码,却也暴露了工程短板。 下一代软件工程师 = 工程 + 质量 + 管理 + AI。

今晚回头看你的项目看板:

  • 交付链有没有红灯?
  • 风险谁来兜底?
  • 流程是否可追溯?

觉得这篇文章有启发? 点个赞 ➕ 转发,让自己、同事和公司团队一起升级!


你对“工程管理者”这条路怎么看? 评论区聊聊你的困惑或经验,我都会回复!

C.O.D.E.S 实战指南:用 AI 高效上线一个产品官网

从 0 到上线官网,只需一套轻量协作循环

在团队想快速上线一个产品/服务的官网时,是否常遇到这些问题:

  • 文案来不及写?设计风格难统一?排期卡在开发?
  • AI 能帮忙,但协作太随意,效率没提升,反而更混乱
  • 用完就忘的 Prompt,无法复用,结果也无法解释
  • 没有留下清晰的文档、测试和知识资产,下一次只能重来

为了解决这些问题,我们实践出一套高效、轻量、可复制的人机协作循环 —— C.O.D.E.S


C.O.D.E.S 是五个阶段的协作闭环,让团队在日常任务中自然嵌入 AI,最终实现从灵感 → Prompt → 执行 → 共享的可控流程。

缩写含义目标
CCollaborate(协作)多人共创 Prompt,有留痕有节奏
OOptimize(优化)Prompt 逐步精炼,模型选择透明
DDocument(文档)自动/手动结合,留下完整知识与上下文
EEvaluate(评估)AI 输出自动检测 + 安全验证 + 成本评估
SShare(共享)模板、脚本、经验沉淀进仓库,可复用可培训

实战案例:一周内上线官网宣传页

Section titled “实战案例:一周内上线官网宣传页”

背景任务: 公司新产品准备上线,需要在 5 天内完成宣传页,包括定位文案、产品介绍、页面结构、上线部署。PM + 设计 + 前端 组成临时小队。


共写 Prompt、同步目标、统一方向

  • PM 在 建立协作页面,团队共写文案生成 Prompt:

    “请根据我们产品的三个核心卖点,生成一句官网主打文案,风格要简洁有记忆点,并符合 B2B 场景。”

  • 使用 ChatGPT / Gemini / Claude 等多模型并行实验,生成多版草稿。

  • 在 聊天工具总 留痕讨论:设计师选定基调 → 前端规划页面模块 → 文案定稿。


从“能用”到“好用”,逐步精炼流程

  • Prompt 从冗长杂乱,迭代为清晰结构化格式(包含角色、目标、语气等元素)。
  • 比较不同模型在中文口号生成上的表现,记录在 Notion 中。
  • 出现“文案重复”问题,编写 Post-processing 脚本做自动去重。

留下可复用的 Prompt 与上下文

  • 前端在 PR 中备注“首页 Hero 文案由 AI 生成”,附 Prompt 链接。
  • 自动生成页面组件 API 文档 + 使用说明。
  • 所有有效 Prompt 和输入/输出样例归档进“Prompt 模板库”。

不止看“写得快”,更关注效果和风险

  • 人工评审内容:是否符合产品定位?是否含偏见或模糊表述?
  • 使用自动测试工具检测 UI 样式一致性,页面加载性能。
  • 对比部署到不同 CDN 的成本,选择最优解。
  • 设置“沙盒验证”流程,确保新页面上线不影响原有网站结构。

知识资产沉淀,转化为组织能力

  • 在周五闪电分享中,PM 演示了从共创 Prompt 到上线的全过程。
  • 将本次项目的 Prompt + 组件代码 + 验收 Checklist 写进内部 Wiki。
  • 设计师将视觉模块组件打包进团队 UI Kit,供下次直接复用。
  • 下一个项目启动时,团队复用了 60% 以上的内容。

原来的问题C.O.D.E.S 之后的变化
文案协作杂乱,来回对齐成本高Prompt 共创+留痕+评审 → 节奏清晰
每次做官网都从头开始模板 + Prompt 库 + 组件仓 → 可复制
AI 输出质量不可控多模型对比 + 人审 + 自动测试 → 可预期
任务完成但无沉淀留下文档 + 数据 + 经验 → 成为组织资产

✅ 第 1 步:用 AI 共创一个小任务

Section titled “✅ 第 1 步:用 AI 共创一个小任务”

比如:写一个 Landing Page 的主视觉口号 + 描述文案 → 用 C.O.D.E.S 跑一遍流程,沉淀 Prompt 和文档

✅ 第 2 步:选一个 5 天内交付的项目跑 MVP 循环

Section titled “✅ 第 2 步:选一个 5 天内交付的项目跑 MVP 循环”

比如:上线一个产品功能页、准备一场活动官网 → 从协作、优化、留痕到评估、复用

评估 产品/服务有无指标增长 → 判停或转运营


指标名称说明
协作可见度有多少 Prompt 留痕在公共频道 / 工具
Prompt 轮次稳定性平均迭代次数(越低代表越清晰)
文档新鲜度最近 30 天内更新的文档比率
AI 测试通过率自动生成内容中一次性通过测试的比例

C.O.D.E.S 不只是一个框架,更是一种 人+AI 高效共创的工作节奏。它不要求你大改流程,只需“轻量嵌入”,就能收获:

✅ 成果更快 ✅ 流程更稳 ✅ 知识可沉淀 ✅ 团队能成长

下一次再要上线一个宣传页、功能页、活动页面,别再从 0 开始,让 C.O.D.E.S 成为你的小队作战脚本 💡


**📩 欢迎留言或评论 AI 对日常工作的实践场景和看法 **

StageWise:一句 Prompt,就能“点选-改界面”

“调个按钮颜色、改个文字,却要在代码库里翻半天?”——相信很多前端同学都有这份无奈。StageWise 给出的答案很简单:直接在浏览器选中元素,用自然语言告诉 AI 怎么改,剩下的交给它。它是一款 开源浏览器工具栏,把你正在跑的本地网页,与 Cursor、Copilot、Windsurf 等 AI 代码助手连起来,真正做到“所见即所得 + AI 代劳”。


  • 鼠标点选 DOM 元素,AI 自动获取 XPath、类名、截图等上下文,避免“描述半天选错组件”的尴尬。
  • 零生产包体积影响:工具栏只在开发模式注入,对线上构建毫无压力。

React、Vue、Svelte、Next、Nuxt、Angular 通通有官方示例,几乎可以无缝植入现有项目。

Cursor、GitHub Copilot、Windsurf、Trae……常见 AI 助手都能秒连,未来还支持自定义 Agent。

官方提供 CLI 一键脚手架,几分钟就能写个插件,把团队内业务 UI 规则也塞给 AI。

GitHub 4k+ Star,Reddit / Twitter 开发者口碑在线,“再也回不去纯手写改 UI 的时代”。


步骤命令 / 操作说明
1. 装扩展VS Code Marketplace 搜 StageWise,或在 Cursor 市场安装。
2. 让工具栏注入在 Cursor 命令面板输入 setupToolbar,自动完成依赖安装与注入。
3. 开启 dev 模式npm run devpnpm dev,页面右下角出现悬浮条即成功。
4. 选中元素 ➜ 发送 Prompt例如选中按钮后输入“把背景改成品牌紫”,几秒后自动生成 PR 或代码 diff。

小提示:手动集成也很简单——pnpm i -D @stagewise/toolbarinitToolbar(…)


npx create-stagewise-plugin 拉一个模板,给 AI 追加团队内部 Design System 颜色表,确保生成代码自带主题色。

安装 @stagewise/agent-interface,5 行代码启动 WebSocket 服务,让你的本地 LLM 也能成为 StageWise 好搭档。

一位前端在 Reddit 分享:复杂遗留项目也能秒接,UI 微调速度提升数倍,“不用再手输文件路径”。


如果你想让 AI 真正融入日常前端开发,而不是“抄代码片段”那点小忙,StageWise 值得你立即试试

留个思考题:

你最想让 StageWise 帮你解决什么 UI 痛点?

评论区聊聊,优秀观点下篇文章加彩蛋哦!

—— 对了,赶紧 star 一下,再拖就被同事抢先体验啦!

需要扩写或补充更多实战细节吗?告诉我~

初创公司AI落地实操指南:从培训到提效,一步步搞定!

近年来,生成式人工智能(AI)掀起了企业变革的浪潮,各行各业的公司纷纷宣布“AI优先”战略,将AI融入日常运营。正如一位对冲基金CEO所说,不用AI就像拒绝在1995年使用互联网——这些工具能让人瞬间变得更聪明、更高效。许多领军企业已经行动:Shopify等公司甚至将使用AI列为硬性绩效要求,要求员工申请新资源前先证明AI无法胜任该工作,并在项目原型阶段优先用AI探索。多邻国(Duolingo)也在全员信中宣布彻底转型为“AI优先”公司,并通过AI在不到一年内开发出148门新课程,数量超过过去12年的总和!可见,善用AI能够带来10倍乃至100倍的效率提升。对于初创企业来说,如何跟上这股潮流,将AI真正落地到团队工作中,是关系到效率和竞争力的关键问题。本文将结合业内优秀实践,为初创公司提供一套逐步实施AI培训和应用落地的实操指南。

第一步:高层带头,营造AI优先文化

Section titled “第一步:高层带头,营造AI优先文化”

要成功推动AI落地,企业高层的态度和参与至关重要。CEO和创始团队必须以身作则,亲自体验并日常使用ChatGPT、Claude等AI工具。如果领导者自己每天都用AI并觉得它“很酷”,整个公司往往会快速跟进。这并非夸张:据观察,CEO是否主动用AI是企业成功落地AI的首要预测指标。那些由CEO亲自推动的公司,员工更有热情去尝试AI,创新文化也更容易形成。

高层应明确向全员传达“AI优先”的战略决心。例如,Shopify CEO的内部备忘录开门见山地指出:“本能地使用AI,现在是对每个人的基本预期”。这封信不是泛泛号召,而是将AI应用提升到战略和制度高度,要求从CEO到所有员工无一例外地将AI融入工作。领导者可以参照这样的做法,发布全员信或在全员大会上宣示AI战略,将“先用AI再求助他人”写入公司的文化准则和绩效考核。重要的是,高层要真正投入,深入了解AI的潜力和局限,而不把它仅当作IT部门的事情。只有当领导层自身认知到位、带头实践,才能为全公司树立榜样,营造出拥抱AI的组织氛围。

第二步:调研现状,识别AI应用场景

Section titled “第二步:调研现状,识别AI应用场景”

在明确决心后,下一步是找出团队工作中最适合引入AI的切入点。初创公司可以进行一次内部调研或头脑风暴,梳理各岗位、各业务流程中重复繁琐、耗时较多的任务清单。例如,客服是否经常回答重复的问题?市场团队是否需要大量撰写文案?开发人员是否进行重复的代码检查?这些环节都可能由AI来提效。许多AI咨询顾问在进入企业时,会对各团队的工作流程做访谈调研,找出可以用AI优化的痛点,然后形成简报向管理层反馈解决思路。初创团队规模不大时,可以由创始人或指定的“AI负责人”亲自主导这个过程,绘制AI应用地图:列出短期内可尝试的AI用例和长期可探索的项目。

在此基础上,建立一个内部知识库来沉淀这些调研结果和潜在用例。比如,将收集到的案例、操作指南汇总成文档,甚至构建一个简单的内部聊天机器人,让员工可以提问“我们如何用AI加速XX任务?”并从中获得答案。这类似于咨询顾问为客户构建的访谈资料检索Bot,帮助员工自助探索AI机会。通过这样的知识库,团队成员在日常工作遇到问题时,可以方便地搜索AI解决方案,逐步形成“先问AI”的习惯。

第三步:定制化培训,全面提升团队AI技能

Section titled “第三步:定制化培训,全面提升团队AI技能”

确定了应用场景后,需要对团队进行系统的AI技能培训。调查显示,将近一半的员工希望获得正式的AI培训,并认为这是提升AI采用率的最佳途径。初创公司可以根据各岗位的需求,制定针对性的培训计划。AI是通用技术,不同职能的用法千差万别。因此培训要贴合业务:让市场人员学会用生成式AI撰写文案、让客服学会用对话模型回答客户问题、让产品和技术团队学会利用AI辅助代码和原型设计等。

实践证明,小步快跑的培训更有效。可以安排一个为期4周的培训冲刺:每周利用1小时开展一次培训或工作坊,连续四周覆盖关键技能。每次聚焦一个主题,例如“AI写作技巧”“构建Prompt的技巧”“利用AI做数据分析”等,让员工逐步消化吸收。在两次培训间隔中,鼓励学员在实际工作中练习,将所学应用到手头任务,并在下次培训时分享反馈。为了确保培训知行合一,管理者应为每位员工设计贴合其职责的练习。例如,为销售人员准备模拟客户问答的提示词,为HR提供AI筛选简历的示范。这种定制化场景练习能让员工真切体会到AI对本职工作的帮助,从而提高学习兴趣和使用意愿。

值得注意的是,培训不仅要教会“怎么用”,还要让团队了解AI的局限性和最佳实践,管理好预期。当前的AI模型并非万能,仍有错误和不完善之处。如果对AI寄予不切实际的高期待,可能会在遇到挫折时失望放弃。因此培训中要介绍AI适合解决的任务类型、常见错误及应对方法,帮助员工建立正确心态:把AI当成强大的助手,而非完美的魔杖。当员工既掌握了技能又抱有理性预期时,AI工具才能真正长期融入他们的日常工作。

第四步:发掘内部AI先锋,推动经验共享

Section titled “第四步:发掘内部AI先锋,推动经验共享”

在团队内部,往往存在对新技术接受程度不同的“三八三二”现象:大约10%的员工极为热衷于尝试AI,10%可能排斥或抗拒,剩下80%则观望为主,如果有人指导他们在本职工作中使用,他们就愿意尝试。初创公司应充分利用前10%“AI极客”员工的力量,让他们成为内部AI先锋和示范者。

具体可以采取以下措施:

  • 指定AI冠军或导师:从热衷探索AI的员工中挑选“AI冠军”,让他们在团队里充当导师角色,随时解答同事关于AI工具的疑问,分享自己的使用技巧。这不仅给予先锋者荣誉感和责任,也为其他人提供了就近学习的榜样。

  • 建立分享机制:定期组织AI经验分享会。可以每周一次线上或线下分享,让员工展示自己用AI完成的工作案例、遇到的问题和解决心得。这种**“每周Prompt秀”**能够让不同岗位的同事互相借鉴,激发新的创意火花。

  • 内部交流渠道:搭建公司内部的AI交流平台,例如Slack频道、微信群组等,鼓励员工随时在上面讨论AI的新发现、新应用。从Shopify等公司的经验来看,公司提供充足的AI工具并鼓励在内部频道分享成功与失败的案例,有助于营造互助的学习氛围。当大家看到同事们用AI解决实际问题,自己也会更有动力跟进尝试。

  • 经验库和Prompt库:收集整理员工共享的优秀用例和提示词,汇总成AI经验库Prompt手册。这样新人或暂时没想法的员工可以参考他人成功案例,降低摸索门槛。让早期使用者的探索成果转化为全员可复用的流程和模板,少走弯路、快速见效

通过以上方法,把分散的个人探索变成全公司的集体学习。只要给这些AI先锋提供舞台和奖励,让他们脱颖而出,整个组织的学习和创新就会自动传导开来。这正是推进AI落地的秘诀之一:让内部创新的火种形成燎原之势

第五步:建立激励机制,将AI应用常态化

Section titled “第五步:建立激励机制,将AI应用常态化”

要让AI应用不昙花一现,必须把它融入日常工作的考核和激励机制中,形成持续改进的闭环。正如有专家指出的,光靠一纸强硬的通知推动变革风险很高,除非配套跟进培训、工具和管理支持,否则容易流于形式。因此,公司需要在制度上为AI落地保驾护航。

绩效考核与目标绑定:将AI使用情况纳入员工绩效指标是一种直接有效的做法。例如,考察员工在完成任务时有无借助AI工具、使用频率和创造的增量价值;团队在申请新增人手或预算前,需证明已经充分利用AI提升效率。这种机制传递出明确信号:AI应用不是可有可无,而是工作的新常态和基本要求。当然,设置指标时要合理,引导为主,避免过度施压引发反感。关键是让员工意识到,善用AI将对个人发展和团队业绩产生积极影响。

数据跟踪与排名:借鉴对冲基金Walleye的做法,可以建立AI使用情况的仪表盘或排行榜。例如,统计每个团队或个人使用ChatGPT等工具的次数、频率,甚至评估由AI辅助完成任务的数量。定期(如每周或每月)公布这些数据,在全员邮件中表扬进步明显或善于分享提示词的员工。这种透明度一方面营造出一种**“友善竞赛”**的氛围,激励大家你追我赶地学习AI;另一方面也让管理层掌握各部门AI落地的实时情况,及时发现障碍和亮点。

奖励早期采纳者:对积极拥抱AI并产生显著成果的员工给予奖励和认可。例如物质奖励、晋升考虑,或邀请他们在更大范围分享经验。Walleye公司甚至将AI采纳度与奖励挂钩,用排行榜和奖励机制鼓励最快的学习者,使AI应用在内部真正“Mandatory, not optional”。初创公司可以因地制宜设计激励,例如月度“AI创新奖”、对节省成本或提效显著的团队给予嘉奖等。

将成果融入业务目标:在OKR或季度目标中加入AI相关的任务指标,比如“本季度利用AI自动化X个流程”“团队人均处理客户请求数提高Y%(借助AI工具)”等。这会驱使各业务负责人主动思考如何用AI达成业务提升。在设置这些目标时,可以参考员工的意愿和反馈,确保目标具有可行性和挑战性并重。

通过制度和激励,将员工使用AI从一次活动变为长期习惯。只有当大家意识到公司持续关注并重奖AI应用带来的成效时,AI才能真正融入组织血脉,成为每日工作的自然组成部分。而一旦进入这种正循环,团队的AI成熟度会越来越高,带来的效益也会逐步显现和放大。

第六步:深度整合AI工具,优化业务流程

Section titled “第六步:深度整合AI工具,优化业务流程”

培训和文化到位后,关键是将AI深度整合进公司的日常业务流程中,实现真正的效率跃迁。McKinsey的调研显示,员工认为将AI无缝集成到现有工作流是促进每日使用的重要因素之一(有45%的员工持此观点)。初创公司应当审视各核心流程,探索如何借助AI重新设计这些流程,以更少的人力投入获得更高产出。

具体来说,可以从以下方面入手:

  • 客户服务与运营:考虑引入AI客服助手,对常见客户问询进行自动回复或辅助支持。许多初创企业已经用少量本地员工配合AI客服平台,处理相当于过去海外几十人呼叫中心的工作量,以更低成本提供7×24支持。虽然当前AI客服尚不能完全自主,但借助AI,两三人即可承担原团队数十人的工作量,极大提升运营效率。

  • 会议与知识管理:引入AI记录和纪要工具,将公司内部的会议、头脑风暴自动录音转写,并用AI提炼要点、生成待办事项。例如Walleye公司在推进AI战略6个月后,已经实现每场会议自动录制和转录,并由AI挖掘其中的见解供团队参考。初创公司也可采用类似方案,减少人工记录的负担,确保知识沉淀不遗漏。

  • 内部信息搜索:搭建企业内部的AI知识库或搜索助手。例如,把公司文档、Wiki、代码库接入一个内部大模型,让员工可以像ChatGPT那样询问内部信息。这相当于为每个员工配备一个知识型AI助手,可以迅速从海量资料中找到答案,避免重复询问和信息孤岛。

  • 研发与产品:在开发流程中嵌入AI。例如利用AI代码助手(如GitHub Copilot、Cursor等)加速编码和代码审查;用生成式AI帮助产品经理快速产出原型设计文档或用户故事。在Shopify的要求中,所有项目原型阶段都以AI探索为核心,其目的是促使团队用AI快速试错、迭代,加快产品开发节奏。

  • 数据分析与决策:给业务和数据团队配备AI数据分析工具。现代AI可以自动解析数据集、生成分析报告、预测趋势,帮助小团队完成过去需要数据科学家才能做的工作。团队也可以构建自己的决策支持AI,将行业数据、用户反馈等信息输入模型,让AI帮助发现模式和机会。例如,一些对冲基金开发了内部AI系统(如Walleye的“Borg”智能层)来吸收财报、建模风险,寻找投资洞察。

通过以上举措,初创公司可以在不显著增加人力的情况下,让现有人手借助AI实现倍增效能。一旦AI融入业务主流程,许多以前“不可能完成的任务”将变得可能。例如,多邻国通过AI极大加速了新课程开发,从而更快地服务用户需求。类似地,初创企业可以把省下的人力和时间投入到更具战略价值的工作上,比如产品创新和市场拓展。正如有人所说,AI就是企业的新“运营杠杆”,忽视它意味着可能被竞争对手抛在身后。

当然,在整合过程中也要注意信息安全和合规,确保对敏感业务的AI应用有必要的审核和监控。但总体而言,大胆拥抱AI、重塑工作流程的企业,将有机会跑出更快的增长曲线。

将AI培训和应用真正落地到一家初创公司,并非一日之功,而是一个持续学习和迭代的过程。这场变革涉及技术、流程和文化多方面,需要高层决心、全员参与以及耐心打磨。在实施过程中,可能会遇到一些阻力和挑战:例如个别员工的抵触、AI工具的局限导致一时效果不佳等等。对此,领导者需要有正确的期望管理和沟通。AI不会一夜之间解决所有问题,但方向是明确的——正如红皇后赛跑的寓言所示,在快速前进的环境中,不进则退

令人欣慰的是,绝大多数成功实践表明,AI落地带来的主要是效率提升和能力扩充,而非大规模裁员。许多企业的经验是,现有员工在AI加持下可以完成以前需要更多人手才能完成的任务,用同样的预算走得更快更远。这也为初创公司提供了一个信号:与其担心AI取代人,不如思考如何用AI让小团队发挥大能量。甚至有观点认为,AI可能将一些过去外包海外的工作重新带回本土,由少数本地员工+AI解决,从而提高产出质量的同时降低沟通成本。

最后,领导者应保持对AI发展动态的关注,并鼓励团队终身学习。AI技术日新月异,新工具和新功能层出不穷,公司需要不断更新培训内容和应用策略,避免僵化。可以考虑设立“AI运营负责人”或内部专家角色,专门跟进最新进展并评估其业务价值,让公司始终走在曲线前沿。在未来的职场中,每个人都将成为AI工具的“管理者”和“合作者”。初创公司具备船小好调头的优势,更应当善用这一优势,在组织中培养灵活试错、拥抱新技术的文化。

总之,AI时代的帷幕才刚刚拉开。越早掌握这把“效率之钥”,初创团队就越有机会在激烈竞争中脱颖而出。从高层率先垂范,到全员技能提升;从机制保障激励,到流程深度重塑,每一步扎实推进,都会让AI真正融入公司的肌理,成为助力成长的强劲引擎。与其观望,不如行动;让AI为你所用,做更多、做更好,未来已来,现在就出发!

参考文献:

  1. RichChat,《拥抱或淘汰?聊聊Shopify CEO这封强制全员学习AI的内部信》
  2. RichChat,《AI-First转型浪潮:从Shopify到多邻国和Box,AI优先的组织到底是什么样的?》
  3. Stuart Willson, LinkedIn帖子: “How Walleye Capital leveraged AI for $10B AUM”
  4. Dan Shipper播客访谈,《At This $10B Hedge Fund, Using AI Just Became Mandatory》文字记录
  5. McKinsey《AI in the workplace: A report for 2025》
  6. Lenny’s Newsletter播客访谈,《The AI-native startup: … | Dan Shipper》摘要

Claude Code + Kimi K2:一行搞定国内终端级 AI 编程

本文带你用 一行环境变量,把终端里的 Claude Code 换上月之暗面的 Kimi K2 ——便宜、快,又不用“翻山越岭”。下面先给出快速结论,随后分步骤详解,照着抄即可。


  • Claude Code 的 Agent 工作流爽点满满,但默认只能连 Anthropic 官方模型,费用和网络都伤不起。
  • Kimi K2 公开提供 Anthropic‑兼容 API,1 k tokens 0.02 元起,比官方便宜一个数量级;长上下文、代码能力也在线。
  • 只要提前申请 Moonshot API Key,并把 ANTHROPIC_AUTH_TOKENANTHROPIC_BASE_URL 填好,Claude Code 就会把 K2 当成 “正版 Claude” 使用,无需改源码或代理。

必备软件最低版本
Node.js18+
npm8+
Git2.20+

在终端里 node -v 验证即可,低于 18 请升级到 LTS 版。

然后全局装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code
claude --version # 能看到版本号就 OK

  1. 访问 Moonshot 控制台 https://platform.moonshot.cn/console/api-keys,创建新 Key(前缀 sk-)。

  1. 复制并妥善保存,之后无法再次查看。

Terminal window
export ANTHROPIC_AUTH_TOKEN=sk-你的Key
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude # 现在所有请求已走 Kimi K2
Terminal window
set ANTHROPIC_AUTH_TOKEN=sk-你的Key
set ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude

TIP:想永久生效,把两条 export/set 写进 ~/.bashrc~/.zshrc 或「系统环境变量」里。


打开新终端运行 claude,提问:

/status

若看到 Anthropic Base URL: https://api.moonshot.cn/anthropic,说明已连上 K2。你也可以随手让它写段代码,速度和费用明显下降。

定期检查 Moonshot 控制台,查看 K2 的使用情况和费用。


症状处理方式
出错 “401 Unauthorized”确认 ANTHROPIC_AUTH_TOKEN 是否带 sk- 前缀且未过期。
提示需登录 Anthropic加一句 export ANTHROPIC_API_KEY=NOT_NEEDED 绕过检查。
想临时切回官方 Claudeunset ANTHROPIC_BASE_URL 即可;再设回来就重连 K2。
代理软件冲突若本机跑有代理脚本(如 kimi-cc),确保端口不占用,或改成上面官方直连方案。

  • Moonshot K2:输入 1 k tokens 0.02 元,输出 0.06 元;比官方 Claude Opus 便宜 ≥ 10 ×。
  • 实测写一个小型网页游戏总花费 ≈ 0.6 元,真·“1 块钱外包”。

把 “贵+网络” 的痛点,变成 “省钱+直连” 的爽点——只需两行环境变量,Claude Code 秒换 Kimi K2,终端立刻升级国产大模型引擎。

玩得开心,别忘了 claude 里敲一句 :set language zh,让 AI 也说中文;更多新姿势,评论区见!

Grok CLI: 将你的终端变成 Grok 的 AI 智能助手

在当今这个时代,命令行界面(CLI)仍然是许多开发人员和系统管理员不可或缺的工具。如果我们将强大的人工智能(AI)与 CLI 相结合,会产生怎样的火花呢?

今天,我们就来介绍一款名为 Grok CLI 的开源工具,它能将 xAI 的 Grok 大模型的强大功能直接集成到您的终端中,让您通过自然语言完成各种复杂的任务。

Grok CLI 是一个开源的 AI 代理,它将 Grok 的强大功能直接带入您的终端。它不仅仅是一个简单的聊天机器人,更是一个能够理解您的意图、并智能地调用各种工具来完成任务的智能助手。

您可以像与真人对话一样,用自然语言向 Grok CLI 发出指令,例如:

  • “帮我看看 package.json 文件里有什么内容”
  • “创建一个名为 hello.js 的新文件,并写入一个简单的 console.log
  • “找出 src 目录下所有的 TypeScript 文件”
  • “将所有 JS 文件中的 oldFunction 替换为 newFunction
  • “运行测试并告诉我结果”

Grok CLI 会自动分析您的指令,并选择最合适的工具来执行,例如查看文件、创建文件、编辑文件、执行 shell 命令等等。

  • 🤖 对话式 AI: 由 Grok-3 提供支持的自然语言界面。
  • 📝 智能文件操作: AI 自动使用工具来查看、创建和编辑文件。
  • ⚡ Bash 集成: 通过自然语言对话执行 shell 命令。
  • 🔧 自动工具选择: AI 智能地为您的请求选择合适的工具。
  • 💬 交互式用户界面: 使用 Ink 构建的精美终端界面。
  • 🌍 全局安装: 通过 npm i -g @vibe-kit/grok-cli 在任何地方安装和使用。

首先,您需要确保您的电脑上已经安装了 Node.js 16+,并且拥有一个来自 x.ai 的 Grok API 密钥。

然后,通过以下命令进行全局安装:

Terminal window
npm install -g @vibe-kit/grok-cli

您可以通过以下三种方式之一来设置您的 Grok API 密钥:

  1. 环境变量:
    Terminal window
    export GROK_API_KEY=your_api_key_here
  2. .env 文件:
    Terminal window
    cp .env.example .env
    # 编辑 .env 文件并添加您的 API 密钥
  3. 命令行标志:
    Terminal window
    grok --api-key your_api_key_here

设置好 API 密钥后,您就可以开始使用了!

直接在终端中输入 grok 即可启动对话式 AI 助手:

Terminal window
grok

您还可以通过 -d 参数指定一个工作目录:

Terminal window
grok -d /path/to/project

Grok CLI 还支持自定义指令,让您可以根据项目的具体情况来“调教”Grok 的行为。

您只需要在您的项目目录下创建一个 .grok/GROK.md 文件,并在其中添加您的自定义指令即可。例如:

# Custom Instructions for Grok CLI
Always use TypeScript for any new code files.
When creating React components,
use functional components with hooks.
Prefer const assertions and explicit
typing over inference where it improves clarity.
Always add JSDoc comments for public
functions and interfaces.
Follow the existing code style and patterns in this
project.

Grok CLI 会自动加载并遵循这些指令,让您的 AI 助手更加贴合您的项目需求。

Grok CLI 将 AI 的强大能力与 CLI 的高效便捷完美结合,为开发人员和系统管理员提供了一种全新的工作方式。它不仅能极大地提高您的工作效率,还能让您以一种更加自然、更加直观的方式与您的计算机进行交互。

如果您对 Grok CLI 感兴趣,不妨访问它的 GitHub 仓库 - https://github.com/superagent-ai/grok-cli 了解更多信息,并亲自上手体验一番!

日报 - 2025-07-21

一张Avalanche雪崩卡实体卡💳,国内证件可办理,不仅0月费、0制卡费、0寄卡费,还能用AVAX/USDC/USDT全球刷Visa,国际刷卡只收1%手续费,从下载App→秒过KYC→申请实体卡→几天后到转运仓

https://mp.weixin.qq.com/s/Ih3YdJkkeGlAjw9cELNNoA

iFAST Global Bank(iGB)英国借记卡💳,需要英国地址,首卡免费

目前在iFAST Global Bank手机App中还没有单独的入口,只有申请加入测试的用户才能申请实体卡。

https://www.ifastgb.com/tellafriend/chaod1702

Claude Code Templates:一键生成+实时监控你的 Claude Code 配置

claude-code-templates 是由开发者 Daniel Avila(davila7)打造的开源 CLI 工具,旨在帮助开发者快速配置和监控 Claude Code。它能一键生成项目配置、分析现有设置,并实时展示运行状态,非常适合搭配 Claude Code 使用 。


  • 支持 JavaScript/TS(含 React、Vue、Angular、Node.js)、Python(Django、Flask、FastAPI)、通用模板,其他语言如 Go、Rust 即将支持 。
  • 支持交互式启动,也可通过参数如 --language, --framework, --yes, --dry-run, --directory 等实现一键化配置 。
  • 安装命令为:npx claude-code-templates@latest,无需全局安装。也可一键安装为全局命令:npm install -g claude-code-templates
Terminal window
npx claude-code-templates@latest
██████╗██╗ █████╗ ██╗ ██╗██████╗ ███████╗
██╔════╝██║ ██╔══██╗██║ ██║██╔══██╗██╔════╝
██║ ██║ ███████║██║ ██║██║ ██║█████╗
██║ ██║ ██╔══██║██║ ██║██║ ██║██╔══╝
╚██████╗███████╗██║ ██║╚██████╔╝██████╔╝███████╗
╚═════╝╚══════╝╚═╝ ╚═╝ ╚═════╝ ╚═════╝ ╚══════╝
██████╗ ██████╗ ██████╗ ███████╗
██╔════╝██╔═══██╗██╔══██╗██╔════╝
██║ ██║ ██║██║ ██║█████╗
██║ ██║ ██║██║ ██║██╔══╝
╚██████╗╚██████╔╝██████╔╝███████╗
╚═════╝ ╚═════╝ ╚═════╝ ╚══════╝
████████╗███████╗███╗ ███╗██████╗ ██╗ █████╗ ████████╗███████╗███████╗
╚══██╔══╝██╔════╝████╗ ████║██╔══██╗██║ ██╔══██╗╚══██╔══╝██╔════╝██╔════╝
██║ █████╗ ██╔████╔██║██████╔╝██║ ███████║ ██║ █████╗ ███████╗
██║ ██╔══╝ ██║╚██╔╝██║██╔═══╝ ██║ ██╔══██║ ██║ ██╔══╝ ╚════██║
██║ ███████╗██║ ╚═╝ ██║██║ ███████╗██║ ██║ ██║ ███████╗███████║
╚═╝ ╚══════╝╚═╝ ╚═╝╚═╝ ╚══════╝╚═╝ ╚═╝ ╚═╝ ╚══════╝╚══════╝
🚀 Setup Claude Code for any project language 🚀
🚀 Welcome to Claude Code Templates!
? What would you like to do? (Use arrow keys)
📊 Analytics Dashboard - Monitor your Claude Code usage and sessions
🔍 Health Check - Verify your Claude Code setup and configuration
⚙️ Project Setup - Configure Claude Code for your project
  • 启动命令 --analytics,打开本地仪表盘(默认 http://localhost:3333),展示 Claude 会话数量、Token 使用量、会话历史、项目活动等。
  • 支持 CSV/JSON 导出,完全本地运行,无数据外泄 。
  • Reddit 上有人评论:“Real‑time monitoring … runs completely local (localhost:3333)… Token usage insights have been eye‑opening!” 。
  • 使用 --health-check 可以验证系统环境、Node.js 版本、网络连通性、Claude Code 配置、hooks、MCP 等,提供可视化检查结果与建议 。

可通过以下命令进行深入分析:

Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

命令会输出命令文件统计、hooks 启用状态、MCP 服务状况、AI 优化建议等 。

支持 dry-run 模式预览操作,自动备份已有配置,改动前弹窗确认,随时可取消。同时 --yes 可跳过询问自动执行 。


Terminal window
npm install -g claude-code-templates
npx claude-code-templates

进入目标项目路径,一步配置完成。

Terminal window
npx claude-code-templates \
--language javascript-typescript \
--framework react \
--yes

针对 Python + Django 可类似使用:--language python --framework django --yes

Terminal window
npx claude-code-templates --analytics
Terminal window
npx claude-code-templates --health-check
Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

  • 省时省力:原本需要手动配置的 .claude/CLAUDE.md、commands、MCP、hooks,现在几秒就搞定。
  • 实时可视化:Analytics Dashboard 对 session 监控和 token 使用一目了然。
  • 规范 + 安全:自动备份+dry-run+确认机制,保障项目配置安全。
  • 优化建议:命令分析和 hook/MCP stats 帮助你优化并形成最佳实践。

Reddit 用户纷纷点赞其 Dashboard 功能:

“Real‑time monitoring of all Claude Code sessions… Token usage charts and project activity breakdown… runs completely local” 。

社区也在热议新增功能请求,如支持 SwiftUI 项目模板等 。

另外,作者刚刚上线了在线模板预览页面,用户可通过网页浏览模板、复制安装命令,并贡献自己的模板到社区 。


claude-code-templates 是一句话:让 Claude Code“即用即配、可监控、可优化”。 适合追求高效开发流程、喜欢仪表盘视图以及重视配置安全的团队或个人。 接下来项目将支持更多语言/框架,如 Go、Rust,并开放在线社区提交模板入口,共建生态。


希望这篇文章能帮助你快速了解并上手 claude-code-templates,让你的 Claude Code 开发更加轻松、可视、专业。 打开终端,试试:

Terminal window
npx claude-code-templates --analytics

开始一段更智能的开发旅程吧 ✨

用 tap4‑ai‑webui 搭建你的专属 AI 导航站

快速概览 tap4‑ai‑webui 是一套基于 Next.js 14 + Supabase 的开源模板,一键部署到 Vercel 即可拥有可分类、可搜索、支持 Markdown 详情页的 AI 工具导航站,且可配合 Tap4 AI Crawler 实现全自动收录更新。项目维护轻量、界面响应迅速,并内置 i18n 与 SEO 友好配置,非常适合个人或小团队搭建“导航 + 内容”一站式入口。

  • 一键 Fork & Deploy:仓库自带 Vercel 按钮,点击即可在云端构建并绑定自有域名,无需本地打包流程。
  • 全栈同构:基于 Next.js 14 App Router,搭配 React Server Component,首屏直出 + 按需流式加载,性能更佳。
  • 云原生数据库:站点数据存于 Supabase Postgres,支持可视化表格、SQL 编辑与实时订阅。
  • 自动化收录:结合 Tap4 AI Crawler 抓取网页摘要并写入数据库,实现“提交‑审核‑发布”全链路自动化。
  • SEO & 多语言:内置 i18n、动态 sitemap 及 meta schema,帮助搜索引擎快速收录,同时支持中/英文切换。

最少只需三件套:GitHub 账号、Vercel 账号、Supabase 项目。

步骤关键操作产出
① Fork 仓库github.com/6677-ai/tap4-ai-webui个人副本
② 创建 Supabase 项目新建数据库 → 运行 db/*.sql三张核心表:web_navigation 等
③ 配置环境变量在 Vercel 或 .env.local 填写 10+ 变量保证 API / 数据库可连通

核心变量示例(节选):

Terminal window
NEXT_PUBLIC_SITE_URL=https://yourdomain.com
NEXT_PUBLIC_SUPABASE_URL=https://xxxx.supabase.co
NEXT_PUBLIC_SUPABASE_ANON_KEY=xxx.yyy.zzz
CRAWLER_API=https://crawler-domain/site/crawl_async
  1. 点击 README 中的 “Deploy with Vercel” 按钮 → 关联 GitHub 仓库。
  2. 在弹出的 env 表单内粘贴前述变量,最关键的是 SITE_URLSUPABASE_URLSUPABASE_ANON_KEY
  3. Hobby 版 Vercel 每天只能自动触发一次 Cron,如果想更高频,请升级到 Pro 并在 vercel.json 声明 Cron 表达式。

手动触发:Hobby 计划可向 POST /api/cron 发送 Authorization: Bearer <CRON_AUTH_KEY> 来立即刷新数据。

Terminal window
git clone https://github.com/6677-ai/tap4-ai-webui.git
cd tap4-ai-webui
nvm use # 切 Node 版本
pnpm i # 装依赖
pnpm dev # 本地预览 http://localhost:3000

Server Component + Tailwind CSS 的组合让页面在开发模式下也能保持接近生产的体感。

  • 提交入口:访问 /submit,填写工具地址即可进入待抓取队列。
  • Tap4 AI Crawler:定时任务调用 CRAWLER_API 抓取页面 → 生成 Markdown 摘要 → 写入 web_navigation 表。
  • 失败回退:若反爬导致抓取失败,可进入 Supabase 后台手动编辑记录,或直接导入官方提供的 13K+ 工具数据源。
  • 在 Supabase 修改 category 表或 tailwind.config.ts 自定义配色。
  • 组件位于 /components,支持按需替换图标或布局。
  • 配置 GOOGLE_TRACKING_IDGOOGLE_ADSENSE_URL 环境变量即可;Next.js 将自动注入 <Script> 标签。
  • 新建 pages/api/*.tsapp/api/* Server Action,配合 Supabase SDK 读写数据。
  • 使用 Vercel Cron 定时调用,如 0 3 * * * 每天 11 AM Beijing 更新。
问题处理方案
Cron 不执行确认已在 Production 环境,并检查项目 Cron 配额(Hobby 限 2 个)。
抓取超时手动插入数据或降低并发;亦可在 Crawler 侧增加代理池。
数据库结构要变更在 Supabase SQL 编辑器写迁移脚本,或使用 GUI 表格增删列。

不到半小时,你就能把一套 功能完备、可持续更新、支持多语言 SEO 的 AI 工具导航站上线,并随时用 Supabase 或 Crawler 迭代内容。Fork 一下,给自己的产品或社区再多一个流量入口吧!🎉


VibeTunnel:一键把浏览器变成 Mac 终端,随时随地 Vibe Coding

在一台 Mac 上安装 VibeTunnel 后,你可以直接在PC、手机和Pad浏览器里打开 查看、输入、甚至同时开启多路终端,而无需本地安装 SSH、端口映射或其他繁琐配置——真正做到“电脑在家跑,手机也能敲”。

  • 远程盯盘 & 运维:出门在外也能随时查看 build 日志或监控 AI Agent 状态,不用再连 VPN 或开 VNC。
  • 团队协作:通过浏览器把终端共享给同事,省去共用账户或复杂 SSH 隧道的安全隐患。
  • Vibe Coding:Mac、iPad、甚至一部旧安卓机都能即时「接管」本地 shell,真正随走随编。
功能说明
🖥 浏览器即终端基于 xterm.js + Node 后端,实时渲染输出、支持 ANSI 颜色与滚动缓冲区,无需 SSH
零配置安装后点击菜单栏图标即启动,本地默认 localhost 只允许自己访问,安全又省事
🤖 AI‑Agent 友好动态标题会显示 Claude/Gemini 等命令的「Thinking / Crafting」状态,方便远程观察长任务
🔒 多重认证本地帐号、SSH Key、环境变量密码或 Token 等五种认证模式,亦可配合 Tailscale/ngrok 暴露到公网
📱 跨端访问Web 界面自适应移动端;官方 iOS 客户端与 Tauri 桌面端也在路上
🎥 会话录制自动以 asciinema 格式保存,方便回放或生成 DemoGIF
  • macOS 原生 App(推荐)

    Terminal window
    brew install --cask vibetunnel

    仅支持 Apple Silicon,安装时会把 vt 命令软链到 /usr/local/bin

  • npm 全平台包 服务器、Docker 或 Intel Mac 可用:npm i -g vibetunnel,需 Node 20+。

Terminal window
vt --shell # 在浏览器里打开交互式 shell
vt npm test # 把任何命令实时转发

vt 实际调用 vibetunnel fwd,还能解析你 .zshrc / .bashrc 中的 alias,让 gs=git status 等别名直接可用。

  1. Tailscale:最推荐,创建端到端加密的私有 VPN,只要记住 my-mac.tailnet.ts.net:4020 即可随时连入。
  2. ngrok:一键获得 HTTPS 公网地址,适合临时分享给外部伙伴。
  3. 局域网 / Cloudflare Tunnel:在可信网络内直接开放 0.0.0.0:4020,或用 cloudflared 生成临时域名。
  • 🚄 高铁上用 iPad 查看 CI 日志,任务完成即远程触发下一步构建。
  • 🧑‍💻 远程 Pair Coding,让同事直接在浏览器里帮你定位线上 Bug。
  • 📟 旧手机秒变「仪表盘」,实时盯着 Claude 或 Gemini 的输出流。
  • UI 大修:Beta 11 起引入更现代的配色与可折叠侧边栏,手机上也能全屏敲命令。
  • 性能与稳定性:Beta 12 解决了 SSH Agent、Linux 安装及欢迎页卡顿等问题,体验更丝滑。
  • 项目活跃度:短短一个月已破 2.8 k commits、14 万行代码,迭代速度令人咋舌。
  • 幕后花絮:它竟是在 24 小时黑客松里,用 Claude Code + 咖啡一把梭哈出来的!
特性VibeTunnelttyd / gotty
动态标题 / Agent 状态
原生 macOS 菜单栏
会话录制✅ asciinema
多重认证+Tailscale部分支持
iOS / Tauri 客户端进行中无官方方案
  1. 安全第一:在公网暴露时务必开启密码或 SSH Key,并限制只读 Session;Dev 环境可以 --no-auth 但切勿生产使用。
  2. Title Hack:在脚本里加 vt title "Deploy 🚀",浏览器标签栏一眼就能看出哪条流水线在跑。
  3. 配合 Tailscale Funnel:需要给客户临时演示?用 Funnel 把 localhost:4020 映射成一次性 HTTPS 链接,演示完即关。

如果你想要一个“随时随地,掏出手机就能操作 Mac 终端”的方案,VibeTunnel 基本覆盖了从快速安装、远程安全到 AI‑Agent 监控的全部需求。试着在周末装一把,然后拍张“我在海边也在 vim”的照片,朋友圈立刻多 10 个点赞😉。

日报 - 2025-07-17

Turn any browser into your Mac terminal. VibeTunnel proxies your terminals right into the browser, so you can vibe-code anywhere.
将PC、手机和Pad上的任何浏览器变成您的 Mac 终端。VibeTunnel 将您的终端直接代理到浏览器中,因此您可以在任何地方进行 Vibe Coding。

https://vt.sh/

https://github.com/amantus-ai/vibetunnel

「Context Engineering」:通过设计上下文,把大语言模型变成某个角色的专家助手。比如你可以让它只回答医生、工程师或会计的视角,还能设置语气和信息边界。感觉比提示词更稳定、更可控,值得一试~

https://github.com/davidkimai/Context-Engineering

Context-Engineering/
├── LICENSE # MIT license
├── README.md # Quick-start overview
├── structure.md # Original structural map
├── STRUCTURE_v2.md # Enhanced structural map with field theory
├── context.json # Original schema configuration
├── context_v2.json # Extended schema with field protocols
├── context_v3.json # Neural field extensions
├── context_v3.5.json # Symbolic mechanism integration
├── CITATIONS.md # Research references and bridges
├── 00_foundations/ # First-principles theory
│ ├── 01_atoms_prompting.md # Atomic instruction units
│ ├── 02_molecules_context.md # Few-shot examples/context
│ ├── 03_cells_memory.md # Stateful conversation layers
│ ├── 04_organs_applications.md # Multi-step control flows
│ ├── 05_cognitive_tools.md # Mental model extensions
│ ├── 06_advanced_applications.md # Real-world implementations
│ ├── 07_prompt_programming.md # Code-like reasoning patterns
│ ├── 08_neural_fields_foundations.md # Context as continuous fields
│ ├── 09_persistence_and_resonance.md # Field dynamics and attractors
│ ├── 10_field_orchestration.md # Coordinating multiple fields
│ ├── 11_emergence_and_attractor_dynamics.md # Emergent properties
│ │── 12_symbolic_mechanisms.md # Symbolic reasoning in LLMs
│ ├── 13_quantum_semantics.md # Multiple meanings (Superposition)
│ └── 14_unified_field_theory.md # Integrating theory models
├── 10_guides_zero_to_hero/ # Hands-on tutorials
│ ├── 01_min_prompt.ipynb # Minimal prompt experiments
│ ├── 02_expand_context.ipynb # Context expansion techniques
│ ├── 03_control_loops.ipynb # Flow control mechanisms
│ ├── 04_rag_recipes.ipynb # Retrieval-augmented patterns
│ ├── 05_protocol_bootstrap.ipynb # Field protocol bootstrap
│ ├── 06_protocol_token_budget.ipynb # Protocol efficiency
│ ├── 07_streaming_context.ipynb # Real-time context
│ ├── 08_emergence_detection.ipynb # Detecting emergence
│ ├── 09_residue_tracking.ipynb # Tracking symbolic residue
│ └── 10_attractor_formation.ipynb # Creating field attractors
├── 20_templates/ # Reusable components
│ ├── minimal_context.yaml # Base context structure
│ ├── control_loop.py # Orchestration template
│ ├── scoring_functions.py # Evaluation metrics
│ ├── prompt_program_template.py # Program structure template
│ ├── schema_template.yaml # Schema definition template
│ ├── recursive_framework.py # Recursive context template
│ ├── field_protocol_shells.py # Field protocol templates
│ ├── symbolic_residue_tracker.py # Residue tracking tools
│ ├── context_audit.py # Context analysis tool
│ ├── shell_runner.py # Protocol shell runner
│ ├── resonance_measurement.py # Field resonance metrics
│ ├── attractor_detection.py # Attractor analysis tools
│ ├── boundary_dynamics.py # Boundary operation tools
│ └── emergence_metrics.py # Emergence measurement
├── 30_examples/ # Practical implementations
│ ├── 00_toy_chatbot/ # Simple conversation agent
│ ├── 01_data_annotator/ # Data labeling system
│ ├── 02_multi_agent_orchestrator/ # Agent collaboration system
│ ├── 03_vscode_helper/ # IDE integration
│ ├── 04_rag_minimal/ # Minimal RAG implementation
│ ├── 05_streaming_window/ # Real-time context demo
│ ├── 06_residue_scanner/ # Symbolic residue demo
│ ├── 07_attractor_visualizer/ # Field visualization
│ ├── 08_field_protocol_demo/ # Protocol demonstration
│ └── 09_emergence_lab/ # Emergence experimentation
├── 40_reference/ # Deep-dive documentation
│ ├── token_budgeting.md # Token optimization strategies
│ ├── retrieval_indexing.md # Retrieval system design
│ ├── eval_checklist.md # PR evaluation criteria
│ ├── cognitive_patterns.md # Reasoning pattern catalog
│ ├── schema_cookbook.md # Schema pattern collection
│ ├── patterns.md # Context pattern library
│ ├── field_mapping.md # Field theory fundamentals
│ ├── symbolic_residue_types.md # Residue classification
│ ├── attractor_dynamics.md # Attractor theory and practice
│ ├── emergence_signatures.md # Detecting emergence
│ └── boundary_operations.md # Boundary management guide
├── 50_contrib/ # Community contributions
│ └── README.md # Contribution guidelines
├── 60_protocols/ # Protocol shells and frameworks
│ ├── README.md # Protocol overview
│ ├── shells/ # Protocol shell definitions
│ │ ├── attractor.co.emerge.shell # Attractor co-emergence
│ │ ├── recursive.emergence.shell # Recursive field emergence
│ │ ├── recursive.memory.attractor.shell # Memory persistence
│ │ ├── field.resonance.scaffold.shell # Field resonance
│ │ ├── field.self_repair.shell # Self-repair mechanisms
│ │ └── context.memory.persistence.attractor.shell # Context persistence
│ ├── digests/ # Simplified protocol documentation
│ └── schemas/ # Protocol schemas
│ ├── fractalRepoContext.v3.5.json # Repository context
│ ├── fractalConsciousnessField.v1.json # Field schema
│ ├── protocolShell.v1.json # Shell schema
│ ├── symbolicResidue.v1.json # Residue schema
│ └── attractorDynamics.v1.json # Attractor schema
├── 70_agents/ # Agent demonstrations
│ ├── README.md # Agent overview
│ ├── 01_residue_scanner/ # Symbolic residue detection
│ ├── 02_self_repair_loop/ # Self-repair protocol
│ ├── 03_attractor_modulator/ # Attractor dynamics
│ ├── 04_boundary_adapter/ # Dynamic boundary tuning
│ └── 05_field_resonance_tuner/ # Field resonance optimization
├── 80_field_integration/ # Complete field projects
│ ├── README.md # Integration overview
│ ├── 00_protocol_ide_helper/ # Protocol development tools
│ ├── 01_context_engineering_assistant/ # Field-based assistant
│ ├── 02_recursive_reasoning_system/ # Recursive reasoning
│ ├── 03_emergent_field_laboratory/ # Field experimentation
│ └── 04_symbolic_reasoning_engine/ # Symbolic mechanisms
├── cognitive-tools/ # Advanced cognitive framework
│ ├── README.md # Overview and quick-start guide
│ ├── cognitive-templates/ # Templates for reasoning
│ │ ├── understanding.md # Comprehension operations
│ │ ├── reasoning.md # Analytical operations
│ │ ├── verification.md # Checking and validation
│ │ ├── composition.md # Combining multiple tools
│ │ └── emergence.md # Emergent reasoning patterns
│ │
│ ├── cognitive-programs/ # Structured prompt programs
│ │ ├── basic-programs.md # Fundamental program structures
│ │ ├── advanced-programs.md # Complex program architectures
│ │ ├── program-library.py # Python implementations
│ │ ├── program-examples.ipynb # Interactive examples
│ │ └── emergence-programs.md # Emergent program patterns
│ │
│ ├── cognitive-schemas/ # Knowledge representations
│ │ ├── user-schemas.md # User information schemas
│ │ ├── domain-schemas.md # Domain knowledge schemas
│ │ ├── task-schemas.md # Reasoning task schemas
│ │ ├── schema-library.yaml # Reusable schema library
│ │ └── field-schemas.md # Field representation schemas
│ │
│ ├── cognitive-architectures/ # Complete reasoning systems
│ │ ├── solver-architecture.md # Problem-solving systems
│ │ ├── tutor-architecture.md # Educational systems
│ │ ├── research-architecture.md # Information synthesis
│ │ ├── architecture-examples.py # Implementation examples
│ │ └── field-architecture.md # Field-based architectures
│ │
│ └── integration/ # Integration patterns
│ ├── with-rag.md # Integration with retrieval
│ ├── with-memory.md # Integration with memory
│ ├── with-agents.md # Integration with agents
│ ├── evaluation-metrics.md # Effectiveness measurement
│ └── with-fields.md # Integration with field protocols
└── .github/ # GitHub configuration
├── CONTRIBUTING.md # Contribution guidelines
├── workflows/ci.yml # CI pipeline configuration
├── workflows/eval.yml # Evaluation automation
└── workflows/protocol_tests.yml # Protocol testing

ChatGPT, Claude 和 Gemini 的 Apple 会员订阅省钱攻略

Section titled “ChatGPT, Claude 和 Gemini 的 Apple 会员订阅省钱攻略”

把 iCloud 账号修改地区到尼日利亚,然后咸鱼买礼品卡兑换,ChatGPT 一个月才 55 块钱人民币。具体分析如下:

ChatGPT Plus 月度会员尼日利亚区价格:9,900 NGN

闲鱼等平台尼日利亚区 9,900 NGN 礼品卡价格:约 55 元人民币

原价:20.00 美元 ≈ 144 元 人民币实际支付:55 元人民币

折扣:约 38 折

节省金额:约 89 元人民币 / 月

Conductor.build 💡不用写代码就能把 Claude Code, Gemini CLI, CodeX 等多个 AI 工具串成自动化流程,支持搜索、插件,还能调试、版本管理、团队协作。

https://conductor.build/

Sniffly:用仪表盘洞察你的 Claude Code 使用模式

一行命令,即刻把枯燥 Claude Code 的 jsonl 日志变成可视化洞察。


Sniffly 是由 Chip Huyen 开源的本地工具,专门解析 Claude Code 产生的 .jsonl 日志,并生成可交互的 Web 仪表盘,帮你快速回答三个问题:

你想知道…Sniffly 给到…
我到底用了 Claude Code 做了什么?Usage Stats:指令次数、文件操作、平均步数等
Claude Code 最常犯什么错?Error Breakdown:将错误按类型、占比可视化
某段对话为什么翻车?Message History:逐条重放完整上下文

全部计算都在本地完成,无需上传任何对话或代码,隐私友好。


环境要求:Python 3.10+

Terminal window
# ✅ 临时试用(无需安装)
uvx sniffly@latest init
# ✅ 全局安装
uv tool install sniffly@latest # 或 pip install sniffly
sniffly init # 首次扫描并启动服务

默认会在浏览器打开 http://localhost:8081 仪表盘,你也可以通过命令行改端口或关闭自动打开:

Terminal window
sniffly config set port 8090
sniffly config set auto_browser false

功能亮点
Usage Stats对指令数量、对话长度、平均步骤、最耗时指令等做柱状/折线图
Error Breakdown统计 FileNotFound, FuncNotFound, Timeout 等错误占比
Message History类似“录像带”回放,同步展示你的代码 diff
Sharable Dashboard一键生成私密 / 公开链接,把洞察分享给队友

Chip Huyen 在首发贴里给出自己的 两个惊喜发现

  1. “Content Not Found” 是最常见错误,占 20‑30% —— Claude Code 经常寻找不存在的文件/函数。
  2. 优化项目结构后,平均指令步骤从 8 步降到 7 步 —— 只改了可发现性,效率立竿见影。

同样,你也可以用 Sniffly 找到自己的“隐形效率黑洞”,然后做针对性改进。


目标命令 / 操作
切换要分析的项目目录sniffly init --project /path/to/project
限制内存占用sniffly config set cache_max_mb_per_project 200
分享只包含统计、不含指令文本Dashboard ▶︎ Share ▶︎ 勾选 Hide Commands
将日志 & Git 提交时间线对齐把 git repo 路径传给 sniffly init,时间线自动融合

如果你也在用 Claude Code 进行 Vibe Coding,却苦于:

  • 日志太散,难以聚焦问题
  • 错误类型众多,不知该先优化哪里
  • 想向团队展示 AI 编程 ROI,却缺少可视化证据

那就试试 Sniffly —— 一行命令,帮你把隐藏在日志里的价值“嗅”出来

开源地址、文档与 Demo:


动手吧! 让 Sniffly 成为你的 Claude Code“黑匣子”,从今天开始量化每一次 AI 编程的得与失。

Claude Code 国内平替:DeepSeek R1 + Kimi K2 一键上手指南

Claude Code Router(CCR)https://github.com/musistudio/claude-code-router 是一款为 Claude Code 用户量身打造的 “多模型分流器”:它在本地监听 Claude Code 的标准请求,然后按你的路由策略转发至 DeepSeek‑R1、Kimi K2 等任意 LLM,兼容 OpenAI‑style API,并可给不同模型加“变压器”做参数与响应的适配。本文先概览 CCR 的核心机制,再逐步演示如何把 DeepSeek R1Kimi K2 接入,一文在手即可上手“多模协同写码”。


  • CCR 通过 ~/.claude-code-router/config.json 描述 Provider → Model → Transformer → 路由规则,让 Claude Code 在 VS Code / 终端里像往常一样使用 /model 即可热切换后端模型。
  • 自带 DeepSeek、OpenRouter、Gemini、MaxToken 等可插拔 Transformer,可给单一模型再叠加多级转换。
  • 支持 CLI / GitHub Actions 双模式运行;结合 Action 可利用 DeepSeek 夜间 25 % 费率做“凌晨批处理”。
Terminal window
npm i -g @anthropic-ai/claude-code # 安装 Claude Code
npm i -g @musistudio/claude-code-router
ccr code # 用 CCR 启动 Claude Code

  1. 在 DeepSeek 平台 控制台申请 key,并记录 sk‑xxx
  2. 官方 API 为 https://api.deepseek.com/chat/completions,完全兼容 OpenAI SDK。
  3. R1 最新版本号 deepseek‑r1‑250528(VolcEngine 镜像提供 128 K 上下文)。
{
"Providers": [
{
"name": "volcengine",
"api_base_url": "https://ark.cn-beijing.volces.com/api/v3/chat/completions",
"api_key": "sk-你的key",
"models": ["deepseek-r1-250528"],
"transformer": { "use": ["deepseek"] }
}
],
"Router": {
"think": "volcengine,deepseek-r1-250528"
}
}
  • deepseek transformer 会自动把 max_tokens 上限限制为 8192 并兼容 R1 不支持 tool_choice 的特性。
  • 夜间(00 :30 – 08 :30 UTC+8)调用 R1 费用仅白天 25 % → 适合大批量测试/重构脚本。

在 Claude Code 中键入:

/model volcengine,deepseek-r1-250528

即可让下一次对话立即改用 DeepSeek R1,并继承 128 K 上下文窗口。


  • Moonshot AI 最新开源 MoE 模型,1 T 总参数 / 32 B 激活专家,擅长代码生成与 Agent 调用。
  • SiliconFlow 提供 16384 max_tokens 额度与高并发低延迟推理服务,适合长链路代码分析。
  • 进入 siliconflow.cn 控制台,开通 moonshotai/Kimi-K2-Instruct 并拿到 token。
  • 也可通过 OpenRouter 走统一兼容端点 https://openrouter.ai/api/v1/chat/completions
{
"Providers": [
{
"name": "siliconflow",
"api_base_url": "https://api.siliconflow.cn/v1/chat/completions",
"api_key": "sk-你的token",
"models": ["moonshotai/Kimi-K2-Instruct"],
"transformer": {
"use": [
["maxtoken", { "max_tokens": 16384 }]
]
}
}
],
"Router": {
"longContext": "siliconflow,moonshotai/Kimi-K2-Instruct"
}
}
  • maxtoken transformer 防止 CCR 误把 max_tokens 撑破 SiliconFlow 的 16 K 限制。
  • 如果你希望在同一次会话里把 32 K + 的项目文档全部喂给 K2,可先 /model siliconflow,moonshotai/Kimi-K2-Instruct,再贴全文。

SiliconFlow 官方 cURL 样例仅需替换为 CCR 的本地端口即可;CCR 会负责转发与字段兼容。


场景路由键建议模型
文件批量重构thinkDeepSeek‑R1(低价+推理链输出)
超长项目 ReadMe 总结longContextKimi‑K2(16 K 上下文)
夜间离线 CIGitHub Actions + CCRDeepSeek‑R1(夜间 25 % 费率)
本地推理/离线背景任务backgroundqwen‑coder‑2.5@Ollama(0 成本)

CCR 的 /model provider,model 命令支持随时热切换;也可以在 Router 里给不同任务通道预设默认模型,实现“写代码用 R1,读长文用 K2”的流水线。


  1. 响应慢? DeepSeek 官方端点推理阶段较慢,若在 VS Code 中等待超时可开 UltraThink 预算或换 VolcEngine 镜像。
  2. Context 溢出? DeepSeek API 默认 64 K,上面示例用 VolcEngine 扩充到 128 K;Kimi K2 为 16 K,需要 maxtoken 保护。
  3. 模型名打错? CCR 的 /model 格式一定是 provider,model,不要遗漏逗号。
  4. 工具调用失效? R1 目前不支持 tool_choice,若要函数调用可退回 DeepSeek V3,或在 CCR 给 V3 加 tooluse transformer。

凭借 Claude Code Router + DeepSeek R1 + Kimi K2,你可以在同一 IDE 内一键切换「推理力」与「长文上下文」两大特长:白天用 K2 写长文报告,夜里切 R1 做批量代码迁移,成本不到官方 Claude Max 的十分之一。立刻安装 CCR,解锁你的多模写码新姿势吧!

Kiro:从一句 Prompt 到上线代码——Spec‑驱动 Agentic IDE 实战指南

在 AI 编码工具一片“卷到天际”的时代,AWS 推出的 Kiro 给人一种耳目一新的感觉:它不只是“帮你写代码”,而是把 需求→设计→实现→自动化 的完整软件工程流程塞进一款 IDE 里,让“Vibe Coding(凭感觉写 demo)”真正迈向 “Viable Code(能上线的产品)”。下面这篇文章将带你快速了解 Kiro 的核心特色、实际使用方法,以及它与其他 Agentic IDE 的差异。

  • 定位:一款基于 VS Code 内核的 Agentic IDE,从“单句 Prompt”自动拆分出需求规范、系统设计与任务清单,并驱动 LLM 完成实现。
  • 背景:由 AWS 内部一个“意见很大的小团队”开发,但故意与 AWS 云服务弱耦合,GitHub / Google 账号即可登录。也支持 AWS Builder ID 登陆。
  • 使用的模型:预览版内置 Claude Sonnet 3.7 和 4.0,可在设置中切换。

笔者在日常工作实际项目使用实践下来,对 Kiro 核心功能进行分析和总结:

  1. 三份 Spec 自动生成

    • requirements.md —— 用 EARS 语法写用户故事与验收标准
    • design.md —— 架构、流程图、数据库设计
    • tasks.md —— 可执行的实现计划(含测试、可访问性等)
  2. EARS 简介:EARS(Easy Approach to Requirements Syntax)由 Rolls‑Royce 工程团队在 2009 年提出,结构为 “While … when … the  shall …”,可减少需求歧义。

  3. 意义:相比单纯 Chat‑pair 编码,Spec‑驱动让“AI 写的每一行代码”都有出处可循,便于团队协作和后期维护。

2.2 Agent Hooks(事件触发自动化)

Section titled “2.2 Agent Hooks(事件触发自动化)”
  • 工作方式:监听“文件保存 / 创建 / 删除 / 手动触发”等事件,调用后端 LLM 执行预设任务。

  • 常见场景

    • 保存 React 组件 → 自动更新测试文件
    • 修改 API Endpoint → 同步 README.md 文档
    • Git 提交前 → 扫描敏感信息泄漏
  • 收益:把“我应该养成的好习惯”固化为 Hook 自动执行,团队共享,避免遗漏。

  • 双模式:启动项目时可选“Prompt 模式”快速试验,或“Spec 模式”一步到位严谨实施。
  • IDE 内审阅:所有 AI 改动以 diff 形式呈现,支持逐行批准或批量接受。
  • VS Code 生态兼容:Open VSX 插件、主题、快捷键几乎原封不动迁移。
  1. 访问 kiro.dev 下载对应平台客户端,登录 GitHub / Google / AWS Builder ID。
Add a comment system for my blog

几分钟后即可在 .kiro/ 目录看到三份 Spec;先审阅、微调后点击 “Approve”。

  • 任务面板展示依赖关系、进度条,可选择 Autopilot Mode(全自动)或 Supervised Mode(人工批准)。
on: save
when: files.match("src/**/*.tsx")
do: >
Ensure the component follows Single Responsibility Principle

保存即生效,Kiro 会在后台补充测试或抛出警告。

  • 使用 Diff 视图检查生成代码;通过后即可一键合并至本地仓库,再推送至远端。
版本交互次数/月价格上线时间
Free50$0Preview 结束后开放
Pro1 000$19Coming Soon
Pro+3 000$39Coming Soon

注:预览期内不限量免费试用,但官方提示“合理限额”。

功能KiroCursorCopilotClaude Code
Spec‑自动生成部分支持
EARS 需求格式
Agent Hooks🚧🚧
多模态 Prompt
VS Code 插件兼容✅ (Open VSX)原生VS Code无 IDE
  • Strengths:需求‑设计一体化、事件自动化

  • Weaknesses

    • 代码补全尚不如 Copilot / Cursor 顺滑;
    • 中文提问尚未深度优化,除英语外国际化已经在路上;
  • Code with Kiro Hackathon:线上举办,奖金 $100 000,截至 2025‑08‑25。欢迎用 Kiro 做项目、写评论系统、玩 Agent Hooks!

如果你已经体会过“让 LLM 帮我写 CRUD”的爽感,但又苦于“产物无法落地”,Kiro 可能正是你想要的那剂“工程化补丁”。先从一个小需求试水,体验 Spec‑driven Development 的流畅闭环,也许你会发现:

“写代码的快乐,不该以上线的痛苦为代价。”

快去下载 Kiro,一起把“灵感”变成“可交付”吧!

Claude Code 开发神器:`claude-trace` 全记录工具,让你的调试透明可见

在使用 Claude Code 写代码时,你是否也好奇:

  • Claude 是怎么理解你的指令的?
  • 系统提示(system prompt)到底写了啥?
  • Claude 用了什么工具?返回了哪些原始数据?
  • API 背后发生了什么?模型用了多少 token?

现在,有了开源工具 claude-trace,这些“幕后”细节你都能一览无遗!


只需一条命令即可安装:

Terminal window
npm install -g @mariozechner/claude-trace

启动 Claude Code 并记录全过程:

Terminal window
claude-trace

支持更多选项:

功能命令
启动 Claude + 日志记录claude-trace
包含所有请求(默认仅记录有效对话)claude-trace --include-all-requests
使用特定参数运行 Claudeclaude-trace --run-with chat --model sonnet-3.5
提取 OAuth tokenclaude-trace --extract-token
生成 HTML 会话报告claude-trace --generate-html logs.jsonl report.html
自动生成索引 + 总结claude-trace --index

使用 claude-trace,你可以在生成的 HTML 页面中看到:

  • ✅ Claude 的 system prompt(隐藏指令)
  • ✅ 所有 API 请求与响应原始数据
  • 工具定义与输出(如搜索/文件读取)
  • ✅ Claude 的“思考过程”块
  • ✅ Token 使用统计(含缓存命中情况)
  • ✅ 可交互 HTML 视图 + 搜索索引
  • ✅ JSONL 原始日志(保存在 .claude-trace/ 文件夹)

每次运行将生成自包含的 HTML 文件,无需服务器即可本地浏览,非常适合团队回顾、调试与归档。


📊 会话总结与索引功能(AI 加持)

Section titled “📊 会话总结与索引功能(AI 加持)”

通过 claude-trace --index 命令,你还能自动生成:

  • 所有日志的 AI 总结标题和概要
  • 带索引的 index.html 文件
  • 可点击跳转的历史会话列表

让你像管理 Notion 一样管理 Claude 的所有对话记录!


如果你符合以下标签,那么你会爱上它:

  • 💡 Claude Code 的深度用户或插件开发者
  • 🧪 需要调试 Claude 工具链、系统指令或日志结构
  • 📁 希望归档所有 Claude 编程会话
  • 🧠 想了解 Claude 背后真实的“思考”过程
  • ⚙️ 需要构建自动化测试或生成会话回顾报告

项目地址:https://github.com/mariozechner/claude-trace


总结一下:

claude-trace 是 Claude Code 用户不可错过的一款调试神器,它让你看清 AI 背后的“黑盒”,无论是开发插件、分析模型响应,还是构建 Claude 工程日志系统,都能带来极大便利。

如果你正在用 Claude 开发项目,不妨试试看,一键开启你的「Claude 可视化开发之旅」!

Vibe Kanban 工具实战:一键管理 Claude、Gemini、Amp 任务

Coding Agent(如 Claude Code、Gemini CLI、Amp 等)在工程开发中的作用愈发重要。团队发现现在花在规划、审查、协调这些人类工作上的时间,已经超过了写代码本身

Vibe Kanban https://github.com/BloopAI/vibe-kanban,正是一款专注解决这类协作流程问题的新工具。它通过 Kanban 板界面,让你可以:

  • 快速切换编码 Agent(Claude、Gemini、Amp 等);
  • 并行或串行调用多个 Agent,自动执行任务;
  • 以可视化方式查看 task 状态、代码审查、Dev Server 快速启动;
  • 集中管理 Agent 的 MPC 配置,提升整体协作效率;
  • 未来还能通过 MCP 服务器让 coding agent 自动创建 task ticket。

Vibe Kanban 的设计理念是:当大部分代码由 AI 写,我们人类的角色就是规划、审查、协调。这不仅是趋势,也是一种全新的开发工作方式。


  1. 提前配置好 Agent 比如安装并登录 Claude Code、Gemini CLI、Amp 等。

  2. 运行命令启动 Vibe Kanban

    Terminal window
    npx vibe-kanban

    自动寻找本地端口并打开浏览器(如http://127.0.0.1:53046),进入 Kanban 工作区。

  3. 配置 Agent 首次需在 Settings 中添加 Agent MCP(例如 Claude、Gemini、Amp 的 token/path),后续可在 UI 中自由切换 Agent 执行任务。

  4. 创建项目 在 Kanban 界面创建新项目,添加 Task(任务),即可开始使用。


切换到相应 Agent 后,可为同一 Task 发起多个“Attempts”。 支持并行运行(不同分支/工作区),也支持串行执行(等待上一步完成再进行)。执行状态、日志一目了然。

每次 Agent 生成代码后,Vibe Kanban 会自动显示 diff 与执行输出,并提供一键启动 Dev Server 的按钮,方便实时预览。

采用常见的 Kanban 三列(To Do,In Progress,Done),直观睡一眼看到 Task 状态与 Agent 执行进度。 你可以为某 Task 创建多个 Attempt(尝试),并标记为成功/失败。

所有 Agent 的配置(例如 Claude、Gemini 的 token、运行命令等)都在 Settings 界面集中管理,切换使用流畅无缝。

Vibe Kanban 内建 “Vibe Kanban MCP” 服务器插件,可通过 Agent 自动生成 planner ticket。例如:

“Plan a migration from AWS to Azure and create detailed tickets…” Agent 会自动拆解任务、创建多个 Kanban 卡片,这一切都在 UI 中完成,无需人工介入。

  1. 在 Kanban 中创建一个 Task:例如 “实现用户登录页面”;
  2. 选择 Agent(如 Claude Code),点击 “New Attempt”;
  3. Agent 自动生成登录页面组件与后端接口;
  4. 你审查差异,运行 Dev Server,验证 UI;
  5. 发现问题,修改指示让 Agent 重试,或重新选 Agent(如 Gemini);
  6. 标记 Attempt 成功,将 Task 移至 Done。

整个过程无需切换命令行窗口,一切在 UI 内操作,高效直观。


  • 对个人开发者: 极大提升启动任务、审查、调试效率,让开发更流畅、更有结构感。

  • 对小团队协作: Agent 自动拆任务、多个 Attempt 协同完成、有独立 Git worktree、可接入外部 MCP,适合团队流水线协作。

  • 投资未来能力: 随着 Agent 能力的持续提升,Vibe Kanban 能无缝适配不同 Agent,让你随时体验最新模型能力。


⏳ 尾声:AI 在编码,我们在协作

Section titled “⏳ 尾声:AI 在编码,我们在协作”

Vibe Kanban 正在开创「Agent 驱动、人人驾驭」的新范式。从写代码到 orchestrate 和 review 代码时代,我们将释放人的创造力,让 Agent Handoff 更高效、流程更清晰。推荐所有正在试用或在生产中使用 coding agents 的开发者一试。

🎯 ccusage 分析 Claude Code 使用情况

ccusage 是由开源开发者 ryoppippi 创建的一款命令行工具,用于分析 Claude Code 本地生成的 JSONL 文件,通过可视化表格方式展示你的 token 使用情况及对应成本,帮助你更好地管理使用习惯和成本结构。

  • 功能简洁:只需一行命令即可获得每日、每月、会话和账单区块(5 小时)级别的 token 使用及成本分布。
  • 实时监控:支持 blocks --live 实时监控当前账单区块内的消耗速率和项目进度。
  • 轻量高效:体积极小(npm 包 ~1 MB),无需依赖安装,适合快速分析。

  1. 成本意识 Claude Code 的 Max 版虽然可以无限使用,但当切换到按量付费计划时,ccusage 可以帮你预估每日和每月成本,思考“无痛阈值”。

  2. 日常数据追踪 通过每日或月度报告,及时掌握长周期的 token 使用趋势、是否存在突然暴增等异常。

  3. 会话/账单区块监控

    • 会话级别:对应项目、主题分析单次对话的 token 使用分布与成本。
    • 块级监控:跟踪五小时账单周期内的消耗趋势和速率(可添加 --live 实时观察)。
  4. 多终端同步分析 ccusage 默认读取 ~/.config/claude/projects/ 与旧路径 ~/.claude/projects/ 的 JSONL 文件,配合云盘可以实现多设备数据统一。

  5. 二次可视化和工具集成 提供 JSON 输出,可接入如 Raycast、Neovim 插件、Go 或 Rust 版本的实时可视化工具(如ccusage.nvim、ccusage-monitor等)。


无需安装,推荐直接用执行环境方式调用:

Terminal window
# 推荐 bunx(速度极快)
bunx ccusage
# 或 npx
npx ccusage@latest
# 或 Deno
deno run -E -R=$HOME/.claude/projects/ -S=homedir -N='raw.githubusercontent.com:443' npm:ccusage@latest

也可全局安装:

Terminal window
npm install -g ccusage
# 或
bun install -g ccusage

Terminal window
# 显示默认的”daily“每日使用报告:
ccusage
# 指定日报、月报、会话报告或账单区块报告:
ccusage daily
ccusage monthly
ccusage session
ccusage blocks
# 实时监控当前账单区块状态:
ccusage blocks --live

更多常用参数:

  • --since / --until: 仅分析指定日期范围
  • --breakdown: 展示各模型(如 Opus、Sonnet)消耗的明细
  • --json: 输出结构化 JSON,便于集成其他工具

执行 ccusage daily,输出类似:

可快速看到每日总 token、缓存命中次数及估算成本。

使用 ccusage blocks --live,控制台会实时刷新显示当前账单区块累计 token、烧速、剩余预算等,类似 CLI 版 “htop” 。

  1. 成本估算为模拟值:ccusage 显示的是基于 token 数量和模型定价的预估成本,可能与实际账单略有出入。

ccusage 是一款小巧但功能强大的 CLI 工具,适合开发者与 Heavy user:

  • 快速获得每天/每会话/每账单段落的 token 消耗和成本分析;
  • 实时监控当前账单区块进展;
  • 与 Raycast、Neovim、Go/Rust 工具无缝对接;
  • 跨设备分析只需同步 JSONL 文件。

试一试 npx ccusage daily,你将会惊讶于自己在 Claude Code 使用上的“花费轨迹”,并在预算管理上更加有意识。欢迎关注公众号带你一起探索 Claude 生态中的效率奥秘!


📌 最后,如果想了解更多 AI, Vibe Coding 和 Claude 使用技巧、整合插件推荐或进阶分析,欢迎在评论区留言交流,让我们一起打造更智慧的 AI 使用体验!

日报 - 2025-06-04

Thomas Ptacek 强调 AI 编程工具对开发效率的提升,尽管存在幻觉和代码质量问题,但其已成为软件开发的重要变革。支持者认为 AI 降低门槛,提高效率,反对者则持保留态度。Ptacek 认为未来不可忽视。

“不用 Cursor和 ChatGPT、手写代码的开发者,怕不是疯了?”

Section titled ““不用 Cursor和 ChatGPT、手写代码的开发者,怕不是疯了?””

今天看到一个人在写代码。没有光标。没有用ChatGPT。就那样坐着打字。像个变态。

Thomas Ptacek 作为经验丰富的软件开发者,表达了对 AI 编程工具的坚定支持。他指出,尽管许多顶尖程序员怀疑大语言模型(LLM)的实用性,但在实际开发中,AI 已成为提升效率的重要助手。即便发展停滞,LLM 也已是他职业生涯中见证的第二大技术突破。

文章反映出支持者与反对者的激烈争论,支持者强调 AI 降低了入门门槛,提高了下限,反对者则担忧幻觉和代码质量。

Ptacek 认为,AI 工具虽不完美,但已深刻改变软件开发流程,未来不可忽视。

“不用 Cursor和 ChatGPT、手写代码的开发者,怕不是疯了?” - https://mp.weixin.qq.com/s/dPGVGvC9mwsVpbeDxw4Kvg

NSFW Wan 1.3B T2V:面向成人内容的强大文本生成视频模型

Section titled “NSFW Wan 1.3B T2V:面向成人内容的强大文本生成视频模型”

NSFW Wan 1.3B T2V 是一款拥有13亿参数的文本生成视频(T2V)模型,专为成人(NSFW)内容创作而微调。它基于1,250个NSFW子论坛的精选数据训练,能生成主题相关、连贯的短视频。模型支持基于自然语言提示生成多样化场景,并适合作为LoRA微调的基础,便于快速训练特定风格或题材。用户可通过不同训练阶段的检查点优化输出效果,辅以提供的提示指南提高生成质量。模型主要面向研究及创意用途。

NSFW-API/NSFW_Wan_1.3b · Hugging Face - https://huggingface.co/NSFW-API/NSFW_Wan_1.3b